前言:想要写出一篇令人眼前一亮的文章吗?我们特意为您整理了5篇回乡见闻范文,相信会为您的写作带来帮助,发现更多的写作思路和灵感。
好印象是从洛阳市回伊川县所走的大马路开始的。沿洛栾公路向南,翻过龙门山,穿过伊阙口,就入县境了。刚进县界,眼睛为之一亮,一条双向八车道的宽阔马路轧在轮下。接我回乡的高中校友自豪地说,咱们县现在“牛”得很,连洛阳市也得高看一眼呢。我忙问咋回事?校友说,你就看这路,这两年刚修的,宽宽阔阔多好走!你再看刚才走过的市区管辖的路,四车道,就不如这路。现在有句话叫“洛阳变化看伊川”,说的就是这条路。我听了,感觉多年前还是国家级贫困县的伊川,现今已驶上发展的快车道。
行在变宽的马路上,路两边矗起的一座座高高大大的建筑很是耀眼。突然间,我看到一栋建筑上立着几个字:中国动漫之都。心想这几个字口气还真不小,莫不是在吹牛?正月初四,我走进了县委宣传部,详细了解了伊川县发展以文化创意为带动的新兴产业情况。
县委宣传部常务副部长方长勋介绍说,伊川县正在搞产业转型,以前是煤电、电解铝项目占重头,虽然对县经济贡献很大,但耗能高,污染环境。现在全县工业正从传统项目向高科技、高文化产业转型。县里沿洛栾大道引进了多个高科技项目,主要有正在建设的洛阳国际科技创新产业园,其中的鼎晟手机、豪晟总部、连连看总部等项目年底前就会建成投产;深新隆光电触摸器、芯海科技芯片及自助售餐机项目上半年投入试生产;新里程平板电脑、导航仪研发生产及总部基地项目,年内一期工程就会形成生产能力;正在推进的还有利尔多晶硅、大生锂电池项目,而其中最耀眼的还是中国动漫之都(洛阳)建设项目。动漫之都是从深圳引进的高科技项目,由国内知名互联网及动漫企业――深圳世为投资集团有限公司投资兴建,一期投资23亿元,将陆续建成动漫创意研发区、商业配套区及生活配套区。其中,作为核心区的动漫创意研发区,将建一个外观呈山谷形的中国国际动漫交易中心。而先期已投资2亿元建成的动漫创意学院,是产业园携手亚洲权威的动漫学术机构――香港数码动漫研究院联合培养数字动漫创意型人才的职业教育机构。总部大楼上半年竣工使用,6栋研发大楼年底前3栋主体封顶,整个工程于2016年完工。
2、界面切换,在问题搜索框内输入文件续期,点击右侧的搜索图标。阅读相关的解决方法。
3、开始到自己的邮箱里进行恢复!回到自己的邮箱,点击下方的文件中转站。
4、界面切换,找到过期的文件,勾选前面的小框框,点击上面的续期图标。
在这个火热的七月,我们暂别象牙塔中舒适的生活,带着青年人特有的朝气蓬勃,走入社会,了解社会,深入社会。
下乡实践,或许可以这样说,这是一群人,为了同一个目标的社会实践,在这里,你能获得许多意想不到的收获和感想,不过,你也有可能一无所获,这取决于你的态度和付出的多少。
暑假社会实践活动一直是大学生投身社会、体验生活、服务大众的真实契机。
下乡实践的第一天,让我记忆犹新,记得那时我们一个小组,满怀激动的心情一起向乡下进发,我们刚到乡里,顿时周围响起了一阵阵狗叫声,我们立刻紧张起来了。接着我们满怀着忐忑的心情,进行一家一户的采访。经过几户人家的采访,我们感觉到采访的艰难性,现在正是农忙的时期,大多人家都下田了,好多户人家的大门上都上了锁,还有一点就是有点人家不配合我们的采访,他们认为我们是骗子,所以实践活动进行的很艰难,但是我们也是能理解他们的想法,原本农民的收入就不多,就只是靠着他们的劳动力下地种田,获得的血汗钱,所以我们并没有埋怨,就这样一天下来了,我们的感受很深。
所以不仅仅是文化,还有实践的重要性,实践类型的重要性,更认识到深入群众的重要性。百姓生活是孕育文化的产床,是发展文化的基地,是传播文化的场所,深入百姓生活才能感受到最真实纯粹的文化。正是这样,文化影响了人们的生活,推动了经济的发展
平日里的我们总觉得同他人交流得心应手,不想是因为我们生活在大学这座象牙塔中,同和我们最相近的人们才能如此自如。然而在社会这个大熔炉中,众生百态都需要我们去适应,在对部分个体户的调查中对此我们感受尤其深刻,我们多次反省,如何站在别人的角度将问题解释得更透彻,以怎样的表达方式才能获得我们所需的准确信息,语言真的是一门艺术。
通过盱眙农商行的下乡实践活动,我们学到很多,不仅仅是文化,还有实践的重要性,实践类型的重要性,更认识到深入群众的重要性。百姓生活是孕育文化的产床,是发展文化的基地,是传播文化的场所,深入百姓生活才能感受到最真实纯粹的文化。正是这样,文化影响了人们的生活,推动了经济的发展
实践使我感触颇多。“在大学里学的不是知识,而是一种叫自学的能力。”这次实践后才深刻体会这句话的含义。暑期实践活动让我学会了很多知识,最重要的就是使我在待人接物、如何处理好人际关系这方面有了很大的进步。这次实践还使我体会到在工作中我们必须勤于动手慢慢琢磨,不断学习不断积累,要有高度的责任心和集体荣誉感,遇到不懂的地方,自己先想方设法解决,实在不行可以虚心请教他人,没有自学能力的人迟早要被单位和社会所淘汰。
在实践中,我也深刻了解到,自己还有许多不足之处,在许多方面还不能做到全面、细致,以至于在实践中出现了许多错误,经过这次时间以后,我将做好总结,在以后的学习和生活中,时时刻刻提醒自己,不在出现类似的问题。这次暑期社会实践,使我的综合素质得到了提高,思想更加成熟,希望以后还有这样的机会,让我得到更好、更全面的锻炼。
那时侯中央电视台正在播放全明星猜想。当时我刚参加完高考,很不理想,每天都很郁闷。
一次偶然的机会,我看了你的一期节目。节目的内容已经忘记了,但是你当时的一首《朋友》,还有你很朴实的谈话,给了我眼前一亮的感觉。很奇怪,尽管当时不知道你是个什么人物,但是内心深处总觉这小子会给我们带来惊喜的。
后来,我参加了复读。那是我人生中最压抑的时刻。每天枯燥的三点一线,单调的步伐,堆成山的试题,还有来自自己内心的压力,充斥着我的补习生活,让我觉得生活之于我是多么的暗淡,多么的孤独。刚开始,还伴着高考失败的阴影,自己仿佛走进了死胡同里,找不到出路。
雅典奥运会随着我的复读生涯开始了。一天早上,我和刚刚结识的难友在食堂吃早餐,电视上有你那熟悉的身影,站在跑道上的你,自信满满;面对强大的对手,你气定神闲;奔跑的你,象极了北方的狼。最终,你给亚洲人民带来了奇迹。我和难友忘我的拥抱着,不知何时我已泪流满面,泣不成声。
你成了名人,名扬海内外。
我知道了你更多信息。其实就在前不久你来过我所在的城市。原来我们是那么得接近过,呼吸过同一座城市的空气。可惜当时我正在为高考拼命,与你错过了。
我和你众多的FANS一样,为你疯狂。总觉的你奔跑的情景能给我带来激情,让我炼狱般的生活找到了前进的力量。于是我的所有物品上贴满了你的相片。老师告诉我要以你为动力,争取明年实现自己的梦想。我也暗下决心,要努力拼搏,并且以你的学校为目标。
那段时间,我仿佛换了个人。每天早晨我都告诉自己“相信自己的能力”。于是,我也有了快乐的时候。高四之于我不再是地狱,而是我要获得新生的转折。每当学习的无聊时,一看到你奔跑的身影,我的内心又充满了力量。
此时的你已非彼时的你。你的消息我们都能轻易获得。你无处不在。可你肯定不知道,在一个角落里,有我这样的人,被你的精神鼓舞着,支撑着,寂寞却也踏实得走过了人生的低谷。
2004年,你的12‵91震惊了世界。理所当然,你成为了感动中国十大人物之一。我再次从中央电视台看到了你,你幽默的谈吐,朴实的话语,不象是一个奥运冠军,更象是邻家的大哥哥。记得大家是这样评价你的:12秒91,他就实现了一次伟大的跨越,100年来的记录成了身后的历史,十重栏杆不再是东方人的障碍,因为中国有刘翔,亚洲有刘翔!这个风一样的年轻人,他不断超越,永不言败,代表着一个正在加速的民族。他身披国旗,一跃站在世界面前。
那一天,我也终于在心里默默告诉自己一定要亲眼见你一次。
后来,2005年暑假你又一次来到了我所在的城市,在我上下学经常路过的体育馆比赛,而我还是只能从报纸上看你。因为我在为自己的将来奔波。没想到,一念之差,我到了东北的一个离家千里的城市,与你所在的上海背离的更远。其实本来06年可以再有机会去看你,可是我却退缩了。你是名人了,而我必须要穿过种种防线才能见到你。所以我放弃了。
我想看的不是你明星般的笑容,而是你在忍受单调漫长的跑道时的孤独。我知道你在成功之前就像一个孤独的自由魂,年复一年,旦夕交替,追寻着未来的方向。枯燥的身影背后,是永不熄灭的梦想之火。这才是我想要看到的。
关键词:人工智能;支撑向量机;相关向量机;稀疏性;稳健性;奇异值
中图分类号:TP181 文献标识码:A DoI: 10.3969/j.issn.1003-6970.2012.06.001
Relevance Vector Regression Robustization Method Based on Predictive Value Replacement
GUo Gao1 JU Hua1
Outlier ratio:奇异值占整个样本的比率(=1-θ); RMSE:检验误差;#RV:相关向量个数。
表3显示,当奇异值比率从0%增加到50%,RVM的检验误差从2.83增加到3.55,VRRVM的检验误差从2.86增加到3.25,新算法的检验误差从2.81到3.12,新算法误差的增长速度是最慢的。同时比较每行中三种算法的检验误差,新算法总是最小的。在模型的稀疏性方面,VRRVM需要140个相关向量,是RVM需要的相关向量(6个)的23倍,是新算法需要相关向量(14个)的10倍。以上结果意味着,对受奇异值污染的数据,新算法在模型的稀疏性和推广能力之间取得一个较好的折中。RVM最稀疏,但其检验误差却最大。VRRVM检验误差较小,但却最稠密。新算法较稀疏,检验误差最小,推广能力最强。
在训练速度方面,当奇异值比率为50%时,RVM、新算法和VRRVM在100个训练集的训练时间总和分别为120.30,1235.90和2937.10 CPU秒。虽然新算法调用标准RVM算法10次,其速度还是比VRRVM快。
传统的高斯噪声模型的一个缺点是它的非稳健性。当观测中包含有奇异值时,其回归函数会发生显著的变化。因为使用了这样一个噪音模型,RVM抗奇异值干扰的能力较差。为了解决此问题,有研究者引入了大方差高斯分布或均匀分布(VRRVM)来解释奇异值现象;还有研究者引入了Student-t噪声模型。这两种模型都需要引入变分方法对其参数进行估计。因为变分方法比RVM使用的type-II极大似然方法[5,12],在计算上的代价更大,因此这两种模型的稳健性虽有不同程度的提高,但却需要更长的训练时间。另外与标准RVM相比,VRRVM需要更多的相关向量。
为了提高RVM的稳健性,我们提出了一个启发式算法。数据实验表明新算法是有效的。与VRRVM相比,新算法推广能力稍强,但需要的相关向量更少;与RVM相比,新算法稀疏性稍逊,但抗奇异值干扰的能力却远远超过对方。在训练速度方面,新算法比RVM慢,但却比VRRVM快。 后续的工作致力于对新算法进行深入的理论分析,并将其推广到RVM分类[5]、高斯过程回归[13,14]、最小二乘支撑向量回归[10],以及寻求其在电力负荷预测[15]方面的应用。
[1] HAWKINS DM. Identification of Outliers [M]. Chapman and Hall, London, 1980.
[2] 张讲社, 郭高. 加权稳健支撑向量回归方法[J]. 计算机学报. 2005, 28(7): 1171-1177.
[3] XU H, CONSTANTINE C, SHIE M. Sparse algorithms are not stable: a no-free-lunch theorem [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(1), 187-193.
[4] GUO G, ZHANG G Y, ZHANG J S. A method to sparsify the solution of support vector regression [J]. Neural Computing and Application, 2010, 19(1): 115-122.
[5] TIPPING M E. Sparse Bayesian Learning and the Relevance Vector Machine [J]. Journal of Machine Learning Research, 2001, 1: 211-244.
[6] VAPNIK V. The Nature of Statistical Learning Theory [M]. New York: Springer-Verlag, 1995.
[7] SCH?LKOPF B, SMOLA A J. Learning with Kernels [M]. MIT, 2002.
[8] FAUL A, TIPPING M E. A variational approach to robust regression [C]. In: Dorffner G, Bischof H, Hornik K(Eds.), Proceedings of ICANN’01, Springer. 2001, 95-102.
[9] TIPPING M E, LAWRENCE N D. Variational Inference for Student-t Models: Robust Bayesian Interpolation and Generalized Component Analysis [J]. Neurocomputing. 2005, 69: 123-141.
[10] SUYKENS A J K, D E BRABANTER J, LUKAS L, VANDEWALLE J. Weighted Least Squares Support Vector Machines: Robustness and Sparse Approximation [J]. Neurocomputing. 2002, 48(1-4): 85-105.
[11] HONG X, CHEN S. M-estimator and D-optimality Model Construction Using Orthogonal forward Regression [J]. IEEE Transaction on System, Man, and Cybernetics Part B: Cybernetics, 2005, 35(1): 155-162.
[12] BERGER J O. Statistical Decision Theory and Bayesian Analysis [M]. Berlin: Springer, second edition, 1985.
[13] RASMUSSEN C E, WILLIAMS C K I. Gaussian Processes for Machine Learning [M]. MIT Press, 2006.