首页 > 文章中心 > 神经网络经济学

神经网络经济学

前言:想要写出一篇令人眼前一亮的文章吗?我们特意为您整理了5篇神经网络经济学范文,相信会为您的写作带来帮助,发现更多的写作思路和灵感。

神经网络经济学

神经网络经济学范文第1篇

关键词:数据挖掘;神经网络;极速学习机

中图分类号:TP18文献标识码:A文章编号:1009-3044(2011)10-2368-04

Survey of Extreme Learning of Neural Networks

YANG Feng-zhi1, PI Hui1, SU Jia-wei2

(1.School of Information, Yunnan Normal University, Kunming 650031, China; 2.School of Physics and Electronic Information, Yunnan Normal University, Kunming 650031, China)

Abstract: Neural Network have been widely applied in many fields including pattern recognition, automatic control, data mining etc. However, the traditional learning methods can not meet the actual needs. The traditional method is mainly based on gradient descent and it needs multiple iterations; all of the network parameters need to be determined by iteration. Therefore, the computational complexity and searching space will increase dramatically. ELM is one-time learning idea, this method is faster algorithm and voids a number of iterations and the local minimum, it has better generalization, robustness and controllability. But for different data sets and different applications, it is used for both data classification or regression. ELM algorithm has some problems. So this paper follow a comprehensive comparison and analysis of existing methods, future research directions are highlighted.

Key words: data mining; neural networks; extreme learning machine

随着计算机硬件设备技术的稳定进步为人类提供了大量的数据收集设备和存储介质;数据库技术的成熟和普及已使人类积累的数据量正以指数方式增长;Internet技术的出现和发展已将整个世界连接成一个地球村,人们可以穿越时空在网上交换信息和协同工作。在这个信息爆炸的时代,面对着浩瀚无垠的信息,人类正被信息淹没,却饥渴于知识。人类怎样从数据中获取知识,就是在这个背景下,数据挖掘应运而生。

但面对海量的不同类型的数据集,参考文献[1]中提出了数据挖掘遇到了的三个困难:首先,巨量数据集的性质往往非常复杂,非线性、时序性与噪音普遍存在;其次,数据分析的目标具有多样性,而复杂目标无论在表述上还是处理上均与领域知识有关;第三,在复杂目标下,对巨量数据集的分析,目前还没有现成的满足可计算条件的一般性理论与方法。由于真实世界的数据关系是很复杂的,非线性程度相当高,而且普遍存在着噪音。如果把神经计算技术用于数据挖掘中,借助神经网络的非线性处理能力和容噪能力,能够较好的解决数据挖掘中存在的问题。但将神经计算技术用于数据挖掘主要存在两大障碍:第一是神经网络学到的知识难于理解;第二是学习时间太长,不适合于大型数据集。把这两个问题解决基于神经网络的数据挖掘将具有广泛的应用前景。针对上述存在的问题,基于神经网络的数据挖掘主要有两方面的研究内容,即增强神经网络的可理解性以及提高网络学习速度。对于前者,主要是从神经网络中抽取易于理解的规则,后者的解决方法是设计快速学习算法。本文针对基于神经网络的数据挖掘存在的第二个问题,即设计快速学习算法,对目前所有的神经网络极速学习算法进行综述。

神经网络极速学习方法主要是用于分类和回归。分类在数据挖掘中是一项非常重要的任务,分类的目的是学会一个分类函数或分类模型(分类器),该模型能把数据集中的数据项映射到给定类别中的某一个类别,分类也可以用来预测。分类器的构造方法有统计方法、机器学习方法、神经网络方法等等。另外许多技术也可以用于分类器的构造,如粗糙集、模糊数学等。主要代表的算法有:决策分类方法代表算法有ID3算法和C4.5算法;贝叶斯分类方法代表算法有朴素贝叶斯分类方法和EM算法;规则归纳方法代表算法有AQ算法和FOIL算法;神经网络方法主要是BP算法。以上这些算法都是比较经典且有代表性的算法。不同于传统的学习方法,Huang为单隐层前馈神经网络(Single-hidden Layer Feedforward Neural Network, SLFN)提出了一种称为极速学习机(Extreme Learning Machine, ELM)的学习方法,该方法整个过程一次完成,无需迭代,与BP相比速度显著提高(通常10倍以上)。

1 单隐层前馈神经网络(SLFN)模型

神经网络逐步的应用于各个领域,尤其是单隐层前馈神经网络的学习能力强,且不同的激励函数可以用于不同的应用领域。对于N个不同的样本(xi,ti),其中一个隐藏层节点数目为N'激励函数g(x)的SLFN的统一模型为

其中αi=[αi1, αi2,…, αin]T是连接第i个隐藏层结点的输入权值,bi是i个隐藏层结点的偏差(bias);βi=[βi1, βi2,…, βim]T是连接第i个隐藏层结点的输出权值; αi.xj表示αi与xj的内积。激励函数g(x)可以是”Sigmoid”、”Sine”或”RBF”等。

上述N个方程的矩阵形式可写成为: Hβ=T其中

E(W)表示期望值与实际值之间的误差平方和,问题求解就是寻找最优的权值W=(a,b, β)使得E(W)最小,其数学模型可表示为

其中εj=[εj1, εj2,…, εjm]是第j个样本的误差。

SFLN自身具有很多优点[9-13],所以在数据挖掘、自动控制及模式识别等领域取得了广泛的应用,它具有如下的优点:具有很强的学习能力,能够逼近复杂非线性函数;能够解决传统参数方法无法解决的问题。但是由于缺乏快速学习方法,传统的反向误差传播方法主要是基于梯度下降的思想,需要多次迭代,网络的所有参数都需要在训练过程中迭代确定。因此算法的计算量和搜索空间很大。

2 BP (Back Propagation)

由Rumelhart和 McCelland提出的BP神经网络模型是目前应用最广泛的模型之一[2],BP训练方法是通过反向误差传播原理不断调整网络权值使得实际输出与期望输出之间的误差平方和达到最小或小于某个阈值。当H未知时,通常采用梯度下降法迭代调整W:

其中η代表学习速率。

基于梯度下降法BP存在以下缺点:

1) 训练速度慢。因为需要多次的迭代,所以时间消耗很长;

2) 参数选择很敏感,必须选取合适的η与w初值,才能取得理想的结果。若η太小,算法收敛很慢,而η太大,算法不太稳定甚至不再收敛;

3) 局部最小值。由于E(w)非凸,因此在下降过程中可能会陷入局部最小点,无法达到全局最小[3];

4) 过渡拟合。在有限样本上训练时,仅以训练误差最小为目标的训练可能导致过渡拟合。

3 极速学习机(ELM)

一个具有N个隐藏结点的SFLN, 即使输入权值是随机取值,它也能够准确拟合N个不同的实例,更明确的讲, SFLN的学习能力只与隐藏层结点的数目有关,而和输入层的权值无关。基于这一思想,为了改进SFLN的学习效率,Huang基于SFLN模型提出了一种称为极速学习方法[5],其基本思想是:设置合适的隐藏层结点数,为输入权值和隐藏层偏差进行随机赋值,然后输出层权值通过最小二乘法计算得到。整个过程一次计算完成,不需要迭代计算,与BP相比速度提升10倍以上。

ELM算法思想及具体步骤如下:

给定一个训练集 激励函数g(x)以及隐藏层结点数N’。

1) 随机指定输入权值和偏差(ai,bi)i=1,2,…,N。

2) 计算隐藏层输出矩阵:

3) 计算输出权值。

虽然使用ELM训练样本与其它算法相比是更快且有较好的泛化性能[14-15]。但有两个问题仍然没有得到解决:一是在隐藏层中,ELM的隐藏结点数目需要被确定,在前面的研究中,隐藏结点的数目是通过实验和误差方法得到,但这不是最优的,对于不同的应用怎样选择合适的网络结构仍然是未知的;二是ELM有时需要很大的网络结构(隐藏结点的数目很多),由于初始阶段是一个随机过程,网络的复杂性会影响到算法的泛化性能。

4 启发式方法

基于以上研究,参考文献[8]中提出了两种启发式的方法对ELM算法进行改进:剪枝方法和增长方法,就是移除隐藏结点和增加隐藏结点。

4.1 剪枝方法

为了解决以上存在的两个问题,Rong在参考文献[6]中提出了一种剪枝算法P-ELM(Pruned ELM)应用于模式分类中,其基本思想是:首先随机生成一个大的网络,然后使用?字2和信息增益方法来移除隐藏结点来降低类间的相关性。

同样基于以上的两个问题,在解决分类和回归两大类问题时,还有另外一种剪枝算法OP-ELM(Optimally pruned extreme learning machine)在参考文献[7]中被提出。此算法的基本思想是:首先基于原始的ELM算法构建MLP(Multilayer Perceptron);使用MRSR(Multiresponse sparse regression)算法对隐藏结点进行排序[15];使用LOO(Leave-One-Out)选择隐藏结点。

虽然提出了P-ELM 和OP-ELM两种剪枝方法,但在参考文献[8]中作者提出剪枝方法面临着这样的两个困难:在开始移除隐藏结点之前,要确定网络最终的规模是很难的;在很多时候,剪枝方法要处理网络规模(应该移除隐藏节点的选择),这样会增加计算复杂性和需要更多的训练时间。这样虽然降低了网络的复杂性,但是以计算时间为代价。

4.2 增长方法

虽然剪枝方法很容易被理解,它花费了大量时间来处理移除的隐藏结点,如果训练样本很大,此算法的效率会变得更差。研究者们又提出了新的启发式方法,增加隐藏节点到隐藏层。

4.2.1 I-ELM(Incremental extreme learning machine)

在参考文献[16-17]中提出了I-ELM(Incremental extreme learning machine)。I-ELM学习方法的基本思想:在学习训练的过程中,一个一个的随机生成隐藏结点增加到隐藏层,当新的隐藏结点增加到网络中时,输出权值不会被重计算,既输出权值不会被更新,添加隐藏结点以后重新调整网络结构。此种方法被证明是满足实际需求的方法。但是这种方法得不到最佳的网络结构,它增加隐藏结点的停止标准是隐藏节点达到最大值或是训练率小于期望值,最大隐藏节点的数目和训练率是由用户规定的。用户没有标准判断最大隐藏结点的数目和训练精度应该是多大,所以这种方法得到的网络结构不是最优的。

为了改进I-ELM的性能,Huang 和Chen在参考文献[16]中提出了EI-ELM(Enhanced random search based incremental extreme learning machine)方法,此算法比I-ELM有更好的泛化性能。

4.2.2 EM-ELM(Error minimized extreme learning machine)

其思想不同于I-ELM的思想,Huang 和Feng在参考文献[18]中提出了EM-ELM(Error minimized extreme learning machine)方法其基本思想是:随机生成多个隐藏结点并将它们及时添加于隐藏层,输出权值同时被更新,更新后重新调整网络结构,直到达到训练精确度或最大隐藏结点数目。训练精确度和最大隐藏结点数目是由用户自己规定的。

I-ELM和 EM-ELM这两种增长方法,它们的思想都是添加隐藏结点到隐藏层,然后重新调整网络结构。但是他们停止增加隐藏结点的条件都是达到最大隐藏结点的数目或达到训练精确度,而这两个参数是由用户规定的,对于不同的应用,用户应该如何设置这样的参数也没有标准。所以通过这两种方法得到的神经网络结构也不是最优的。

4.2.3 CS-ELM(A Constructive hidden nodes selection method for ELM)

在I-ELM和 EM-ELM算法中,用户如何确定隐藏结点最大数目和训练精确度,还是一个未知的问题,这样会导致所产生的网络结构不是最佳的。所以在参考文献[19]中提出一种新的方法即CS-ELM(A Constructive hidden nodes selection method for ELM),此方法的基本思想是:随机生成一个隐藏结点作为候选库,从候选库中选择最重要的结点来调整网络结构,在训练的过程中,主要是要选择最佳隐藏结点的数目。当隐藏结点的选择标准是:当无偏风险估计标准CP达到最小时,隐藏结点的数目达到最佳。此方法主要有3个步骤:初始化阶段,将训练数据集分成不相交的两部分;选择阶段,选择最佳的隐藏结点数P*;训练和测试阶段,根据选择的P*重新构建网络结构,对数据集进行训练和测试。

CS-ELM算法的基本思想及步骤如下:

给定一个训练数据集{(xi,ti)}2n i=1、激励函数g(x)以及隐藏结点的最大数目Lmax。

第一阶段:把训练数据集分成不相交的两个子集,使用ELM模型随机生成隐藏结点{(ai,bi)}Lmax i=1,经训练得到矩阵t=Hβ+e,H=[h1,h2,…,hL]( 注:矩阵e是残差矩阵)。

第二阶段:当k=0设置L0=0,y(0)=0, β(0)=0,p=?准和Hp=0。将矩阵H和t零均值化。

不断迭代计算残差,使无偏风险估计标准CP达到最小时,隐藏结点的数目达到最佳。

第三阶段:第二阶段得到最佳的隐藏结点数目以后重构网络,对分组的数据进行训练和测试。

CS-ELM与I-ELM和 EM-ELM相比,能够重构最佳的网络结构,但是CS-ELM算法是一种贪心方法,当隐藏结点数P*被确定时,可能会影响后面隐藏结点的选择,当一个新的隐藏结点增加于隐藏层时,之前确定的P*就变得不重要。

4.2.4 TS-ELM(Two-stage extreme learning machine for regression)

除了上面这些方法外,在参考文献[20-23]中提出的OLS(Orthogonalleastsquares)也是一种比较流行的算法。但OLS算法也不是一种很好的算法,它也只是一种贪心的算法,只能达到局部最优。基于OLS算法的思想,Li在参考文献[24]中提出FCA(fast construction algorithm),此算法先基于SFLN模型随机生成隐藏结点,选择重要的隐藏结点一个一个的添加于隐藏层中,整个过程依赖于矩阵分解,选择隐藏结点的停止标准是隐藏结点的数目达到默认值。添加隐藏结点以后重新调整网络结构,对数据集进行训练和测试。FCA算法与ELM和OLS相比是更快的和更好的。

基于FCA和CS-ELM算法思想,Yuan等人在参考文献[8]中提出了TS-ELM(Two-stage extreme learning machine for regression),此算法分成两个步骤:第一阶段,随机生成隐藏结点于网络模型中,作为隐藏结点候选库,使用前向回归算法选择隐藏结点添加于网络中,直到无偏风险估计标准CP达到最小值,通过隐藏结点的网络贡献度来衡量隐藏结点的重要性。第二阶段,选择的隐藏结点被修正,一些不重要的隐藏结点被移除,降低网络的复杂性。该算法通过计算隐藏结点的网络贡献度,作为衡量隐藏结点重要程度的度量标准,选择重要的隐藏结点添加网络并重构网络,移除不重要的结点来降低网络复杂性,此算法的泛化性能和学习能力得到均衡,重构的网络也是最佳的。

5 极速学习方法(ELM)的应用

神经网络的应用十分广泛,尤其是单隐层前馈神经网络的学习能力强,不同的激励函数可以用于不同的应用领域。为了提高单隐层前馈神经网络的学习能力和泛化性能,提出了极速学习方法,该方法整个过程一次完成,无需迭代,与BP相比速度显著提高(通常10倍以上)。比较常见的应用领域有:传感器信息处理、信号处理、自动控制、知识处理、市场分析、运输及通信、电子学、神经科学等几个方面,除了以上这些,神经网络在下面这些领域也有着广泛的应用前景:娱乐、零售分析、信用分析、航空与航天和医疗诊断系统等[25]。极速学习方法是基于BP的改进学习方法,在以上这些领域,它也将有着广泛的应用前景。

6 总结

学习性能和泛化性能是神经网络研究中的最重要的两个问题,当神经网络的学习能力较强时,会导致过度拟合问题,使得神经网络模型训练结果很好,但用来预测未知数据时表现很差,即泛化性能差,所以神经网络的学习性能和泛化性能是一对矛盾。为了使两者均衡,选择合适的网络结构(如隐藏神经元的数目)、选择合适的样本尺寸和选择合适的模型以及样本特征集的选择等这几方面是很重要。在目前的研究中,为了使神经网络的泛化性能和学习能力得到均衡,研究者们主要是隐藏结点的选择对网络结构进行调整,以提升学习能力和泛化性能。而在网络模型中的输入权值和偏差并没有单独考虑,只是配合隐藏结点的选择而选择,但网络的学习性能和泛化性能也必和这两个参数有关系,所以这两个参数应该被考虑。对于不同的数据集,不同的应用领域,应该如何调整网络结构也是一个未知的问题,如果要将神经网络极速学习方法真正用于不同的领域,这些都是必需要考虑的。在未来的研究中,将在线学习与遗传算法、ELM及SVM结合起来将是一个值得研究的问题。在应用方面,可以用于任何分类问题和回归问题中,如何将神经网络极速学习方法用于具体的应用领域是一个值得研究的课题。

参考文献:

[1] 陈兆乾,周志华,陈世福.神经计算研究现状及发展趋势[J].计算机应用研究,2000(2):34-37.

[2] Rumelhart D E,McClelland J L. Paraller Distributed Processing[J].Cambridge:MIT Press,1986,1(2):125-187.

[3] Cristianini N, Shawe-Taylor J. An Introduction to Support Vector Machimes[J].Cambridge: Cambridge University Press,2000.

[4] Huang G-B.Learning capability and storage capacity of two hidden-layer feedforward networks[J]. IEEE Transactions on Neural Networks.2003.14(2):274-281

[5] Huang G-B, Zhu Q-Y, Siew C-K. Extreme learning machine: theory and application[J].Neurocomputing,2006,70(1-3):489-501.

[6] H-J Rong, Y-S.Ong, A-H.Tan,Z. A fast pruned-extreme learning machine for classication problem[J], Neurocomputing 72(2008) 359-366.

[7] Miche Y,Sorjama A, Lendasse A,OP-ELM:theory, experiments and a toolbox, in:V,Kurkov,R.Neruda,J.Koutnk(Eds.)ICANN.(1).ofLectureNotesinComputerScience,vol.5163,2008:145-154.

[8] YuanLan, YengChai Soh,Huang G-B. Two-stage extreme learning machine for regression[J].Neurocomputing73(2010)3028-3038.

[9] Park J, Sandberg I W, Universal approximation using radial basis function networks[J].Neural computation3(1991)246¨C257.

[10] Huang G B, Babri H A, Up perbounds on the number of hidden neurons in feedforward networks with arbitrary bounded non linear activation functions[J], IEEE Transaction son Neural Networks9(1)(1998)224¨C229.

[11] Huang G B, Chen Y Q, Babri H A.Classication ability of single hidden layer feedforward neural networks[J].IEEE Transaction son Neural Networks11(3)(2000)799¨C801.

[12] Mao K Z,G.-B.Huang,Neuron selection for RBF neural network classier Based on data structure preserving criterion[J].IEEE Transactions on Neural Networks16(6)(2005)1531¨C1540.

[13] Ferrari S, Stengel R F, Smooth function approximation using neural networks[J]. IEEE Transaction son Neural Networks16(1)(2005)24¨C38.

[14] Huang G B, Zhu Q Y, Siew C K, Extreme learning machine: a new learning scheme of feedforward neural networks[J]. in: Proceeding soInternational Joint Conference on Neural Networks,vol.2,Budapest,Hungary,25¨C29July2004 pp.985¨C990.

[15] Simila T, Tikka J. Multiresponse sparse regression with application to multidimensional scaling[J].in:Proceeding soft the 15th International Conference on Articial Neural Networks, ICANN2005,vol.3697,pp.97¨C102 2005.

[16] Huang G B, Chen L. Enhanced random search based incremental extreme Learningmachine[J].Neurocomputing71(2008)3060¨C3068

[17] Huang G B, Chen L. Convexin cremental extreme learning machine[J], Neurocomputing 70(2007)3056¨C3062

[18] Feng G, Huang G B, Q.Lin,R.Gay, Error minimized extreme learning Machine with growth of hidden nodes and incremental learning[J].IEEETransactionson Neural Networks 20(8)(2009)1352¨C1357.

[19] Lan Y, Soh Y C, Huang G B. Constructive hidden nodes selection of extreme Learning machine for regression[J].Neurocomputing(2010).doi:10.1016/j.neucom.2010.05.022.

[20] Chen S, Billings S A, Luo W. Orthogonal least squares methods and their Application to non-linear system midentication[J].International Journal of Control50(5)(1989)1873¨C1896.

[21] Chen S, Cowan C F N, Grant P M.Orthogonal least squares learning Algorithm for radial basis function networks[J].IEEE TransactionsonNeuralNetworks2(2)(1991)302¨C309.

[22] Chen S, Wigger J. Fast orthogonal least squares algorithm for efficient subset Modelselection[J],IEEETransactionsonSignalProcessing43(7)(1995)1713¨C1715.

[23] Zhu Q M, Billings S A.Fast orthogonal identication of nonlinear stochastic Models and radial basis function neural networks[J],International Journal of Control64(5)(1996)871¨C886.

神经网络经济学范文第2篇

关键词 BP神经网络 故障诊断 神经网络专家系统 规则式专家系统

中图分类号:TP311 文献标识码:A

0引言

在医学上,血液透析是一种用来实现人体内废物产品如血肌酐和尿素与自由水在肾脏中的体外去除当肾功能处于衰竭状态时候的方法。血液透析是肾脏替代疗法的三种方法之一(其他两个是肾移植和腹膜透析)。针对血液透析过程,采用数据挖掘技术对大量数据进行分析,以透析前后各过程水资源分配为目标,研究水资源分配与再利用模型,建立水资源分配管理的知识库,从而能根据任务,纯度等要求自动分配水源管路。设计相关软硬件平台,为节约透析用水总量,降低水资源消耗提供保障,该研究有较高的理论价值和广阔的应用前景。

患者的血液通过血液透析机泵和透析液进行透析。医疗行为取决于医生的推理能力医疗决策依赖于潜在的不确定信息。此外,血流速度是保证处理效果和高通量血液透析可靠性的关键元件。因此,血液引流医院使用动静脉穿刺,血液的流动率(BFR)约为200毫升/分钟,但它对病人有一定伤害。

本文提出了一种改进的方法即使用血液引流透析壶,避免穿刺,使血流率(BFR)可以达到400毫升/分钟。有了这个动机,(研究拟解决的关键问题)本文提出了一种用于血液透析系统的基于模型的控制方法,设计为在血液透析的终末期肾功能衰竭患者维持血流动力学稳定。解决了传统的专家系统知识获取瓶颈等诸多问题,比如自学能力的效率低,推理单调,所以它有一定的局限性。而人工神经网络技术是一个数学模型,应用结构像下丘脑神经元的突触连接,具有学习能力强,能够从样本中学习,获取知识,它是以权值和阈值的形式存储在神经网络中。这很容易实现并行处理,具有联想记忆的特点,有较好的鲁棒性。当结合神经网络专家系统,他们可以协同工作,优势互补,它们的功能将更加强大。

因此,建立一个神经网络专家系统用来模拟训练透析壶中的透析液位置与透析情况,血泵的速度和总的安全状态估计,这可以为护士提供辅助决策参考。

图1:血液透析器的系统结构图

1便携式血透机结构设计

根据电路的特点,对血液透析器的系统架构分为一二回路系统:体外血液透析回路和血液输送系统。图1是血液透析器系统结构图。

我们将血液透析会话分为三个阶段。第一阶段是预冲透析器和导管,它们同时通过空气泡沫放电。第二阶段是状态图血液从动脉到透析壶循环血液透析,并保持液位稳定。第三阶段是体外循环后的回血状态。

图1是血液透析器系统结构图。A泵将血液从病人的动脉通过输液管A引流至透析壶。泵C使血液通过导管引流至透析器。当泵A抽血到体外电路,局部真空可能存在,将空气吸入管如果连接没有绝对的紧密。因此,除气室的功能是排出空气。经过过滤后,血液通过输液管B回到透析壶和患者静脉。A泵的旋转方向和B泵是相反的。超声波传感器为透析壶设置上限和下限液位。出于安全考虑,空气泡沫探测器是用来探测空气导管和防止气泡注入病人体内。导管中的压力控制用于避免管道破裂,病人凝血和血肿现象的出现。

在这个系统中,当血液透析的状态是安全的,A泵的转速为一个固定值为了保持恒定的量的血液从病人的动脉流经血液透析机。B泵的转速应按在透析壶的血容量和系统状态决定。此外,气泡和导管的压力也应分别控制A泵和B泵的速度。血液排水的主要困难是血泵的转速调节,以确保适当的运行状态。

以下变量与泵的速度相关:泵的旋转速度(NA):血液透析器系统无故障时那是一个不随时间变化而变化的参数。旋转泵B速度(NB):随血液透析的状态变化而变化。泵A和泵B被分别设置在透析过程的开始和结束。透析壶的液位(h):h的变化趋势反应了系统的运行状态透析壶液位状态(hs):hs的值随液位的上升和下降而变化,控制泵A和B的速度。导管中的气泡(U):如果导管中有空气气泡,这会造成对病人危险的空气栓塞。一旦气泡被检测到,AB两泵应停下来,剩下的血液应该在排除气泡后返回到患者体内。导管的压力(P1,P2,P3):导管中的压力值能够反映血液透析过程的状态。压力的采集数据应实时获取以便调整AB泵的速度。

2实验理论基础

2.1专家系统综述

随着科学技术的发展,一系列高新技术与复杂系统出现。专家系统是人工智能中最活跃、最广泛的应用领域之一。第一个专家系统在1965年的美国被制造。目前,专家系统已被应用于许多领域,如农业生产,医疗诊断,智能决策,实时监测,地质勘探,教学和军事等,促进了国民经济的发展带来了巨大的经济效益。

2.2神经网络概述

1943年,一个数学模型(MP模型)在神经科学的理论研究时代正式提出了神经元,从而开创了神经科学理论的研究时代。从那时起,大量的突破性的研究促进了神经网络模型及其学习算法,特别是在1982年,一个神经网络模型的创建,介绍了计算能量函数的概念,给出基于神经网络的稳定性判据,有力地推动了神经网络的研究与开发。一个三层神经网络可以逼近任意非线性函数这个结论是在1989年被提出的 。在人工神经网络在实际应用中,80%到90%的人工神经网络模型,采用BP网络或由其变异的网络模型。

2.3神经网络专家系统的基本原理

神经网络使用了大量的神经连接,每个连接的权重表示特定的概念或知识的分布。在获取知识的过程中,它需要有专家提出的例子和相关的解决方案,然后可以通过某个具体的学习算法从样本中学习到。自适应算法可以不断修改网络的连接权值。[7]神经网络可以输入异常样本,如果输入的模式是接近某个学习样本,输出也会接近该学习样本的模式,从而使神经网络专家系统具有联想记忆的能力。适当的由专家提供的解决方案通过输入和输出系统存储在知识库。

3神经网络专家系统的结构

一个神经网络专家系统的结构,表示在图2。该系统主要由知识库,数据文件,并行推理机,信息获取模块,解释系统和人机界面等构成。

图2:人工神经网络专家系统的结构

3.1知识获取

3.1.1bp神经网络

根据结构,神经网络可以分为两类,一个是前馈网络,另一个是反馈网络。从目前的研究来看,前馈网络是一种更完善的网络。而BP网络是最常见的一种。

标准BP神经网络由三个神经层构成,即,输入层,中间隐含层和输出层。各层的神经元相互连接形成整个互连,但同一层的神经元不连接。对于多层网络的训练,首先是提供一组训练样本,其中包括输入样本与理想输出样本。当所有的网络的实际输出与理想输出一致,培训结束。否则,它需要修改权值,根据理想的输出使实际输出。在本文的三层BP网络和图3显示了网络的三层结构。

图3:网络的三层结构

3.1.2专家系统规则

泵的转速调整应根据目前的透析壶中血容量的观测,以及系统的运行状态决定。监测血容量的目标是为了保持透析壶中的液位在很窄的范围内变化。这样的血液量跟踪系统是减少在透析过程中与过程后低血糖发作的频率。

血容量调整的估计是通过以下隐藏变量表示:A泵的旋转速度(nA):A泵控制着血液流进透析器的流动量。nA是一个时不变参数。B泵的旋转速度(nB):B泵控制着血液流出透析器的流动量。泵A和泵B分别被设置在透析器的开始端和结束端。透析壶液位(h):透析壶液位在预定的安全范围内,它根据透析过程中不同的人在不同的阶段中的不同操作而变化。

透析壶的液位状态(hS):透析壶的液位状态指示液位的变化过程。

血液引流的主要困难是对血液流经透析器时的理想血容量的估计。

该系统采用专家系统的推理机制的基础知识和神经网络的推理机制来处理血液透析过程中可能出现的不同状况,整个系统处于并行工作的方式。在我们的例子中,BP神经网络的液位有五种状态:非常低,低,正常,高,非常高。相应的似然性(nA和nB)也模糊:低,正常,高。透析壶的液位状态有四种状态:正常,小,大和多(具体参数是根据控制对象的不同而调整)。模糊变量的使用,有效防止了门限效应与阈值影响。一些在专家系统的显式知识库的规则如下:

如果透析壶液位低(h低)和透析壶液位状态小(hs小);

然后B泵的旋转速度低(nB低)和透析壶液位状态小(hs小)和A泵的旋转速度正常(正常);

如果透析壶液位高(h高)和(透析壶液位状态小(小)或透析壶液位状态大(hs大)或透析壶液位状态正常(hs正常));

然后B泵的旋转速度正常(nB正常)和透析壶液位状态多(hs多);

如果透析壶液位很高(h很高)或(透析壶液位状态多(hs多)和透析壶液位高(h高)和透析壶液位状态不大(hs不大));

然后B泵的旋转速度高(nB高)和透析壶液位多(nB多);

如果透析壶液位正常(h正常)和(透析壶液位状态多(hs多)或透析壶液位高(h高));

然后B泵的旋转速度低(nB低)和透析壶液位状态大(hs大);

除了这些,空气泡沫和输液管压力与血液透析的稳定性和安全性密切相关。如果变量是不正常的,它可能会发生紧急事件如管,栓塞的断裂,凝血等等,因此A泵与B泵的转速应该根据相应情况的变化而改变。因此需要对BP网络的知识,大容量的学习,自适应,并行推理,联想记忆,与专家系统的结合,优势互补,构建神经网络专家系统,实现血液透析的快速调整。

3.2神经网络的训练

基于网络的结构和学习样本,训练方法可以被描述为四个步骤:

(1)给出的阈值\j、aj,链接的权重Vhi、Wij在[-1, 1]之间随机变化。

(2)为每个模型(AK,YK)(A为输入层的节点,Y是隐层节点,K=1,2,……)。

①发送到输入层,通过连接权重矩阵向隐层发送激活值,然后隐层的激活值产生。

②bi=f(vhiZh+ai) (1)

③计算误差LC:dj=(yjk-cj)cj(1-cj) j=1,2 (2)

(3)为每一个dj计算错误LB:ei=bj(1-bj)(djwj) (3)

(4)调整连接权值和阈值:=wij=Zbidj (4)

(7)

其中Z(0

4系统仿真与实现

这表明泵A与泵B振动速度的变更与液位高度h变化的比较。当液位低,B泵将减速从而降低血液流出透析器的流量,从而在透析壶的血液量将增加。泵B一直保持低速度而不是停止以避免血液滞留在透析壶中或者发生凝管状况。实验对所提出的方法进行了验证。规则是被集成在专家系统中。神经网络是由医务人员使用的训练样本作为准备。然后神经网络和以规则为基础的专家系统进行融合。根据透析壶内的液位数据,空气泡沫探测器的输出和导管所收集的压力,泵A和泵B的速度变化。速度的变化会反过来作用于液位的变化。如果液位低并且没有下降,泵A开始运行。当液位是正常的,上升的,B泵开始以正常速度运行。当A泵顺时针旋转时B泵逆时针旋转。当液位低,B泵的旋转速度低于A泵。在这种方式中液位上升。如果液位高,泵B的旋转速度超过泵A. 因此,液位将下降到达下限值。一旦液位低于下限,B泵旋转速度将放缓。如果导管中有空气泡沫,泵A和泵B应立即停止转动并且管路中的血液应该被尽快返回到患者体内直到导管中的空气泡沫被排除。如果压力异常,可能会发生血肿和空气泄漏,两泵应减速。

在上述分析的基础上,实验有效的验证了所设计的神经网络专家系统控制血液透析系统,图4显示了在透析单元进行建模的结果。

图4:在实际透析会话层进行的模拟结果

5结论

本文阐述了神经网络专家系统在控制血液透析过程中所起到的稳定性和安全性应用。这个系统的目的是帮助维持血液透析过程中的稳定性与帮助血液透析患者缓解疼痛。

在这项研究中促进了仿真系统的开发,极大程度的实现了血液透析系统的安全性与稳定性并且降低针头的尺寸大小。经验的结果表明,该神经网络专家系统具有学习样本的能力,对网络的输出与预期的结果相一致,并且当神经网络完成学习过程的时候,它可以对外界刺激存储在记忆中的信息实现转换或关联,从而对系统的输入产生回应。

参考文献

[1] Rose C, Smaili C, Charpillet F.动态贝叶斯网络在适用于监测患者血液透析治疗的处理决策支持系统中的不确定因素[ C ] 人工智能工具治疗病人的监测处理不确定性,2005。ICTAI 05.第十七届IEEE国际会议。IEEE,2005:5-598.

[2] Fueda Y,Hattori T,Minato K,等。一种基于复杂医学工程的血流量变化与评估[C]//,2012 ICME国际会议奖,IEEE, 2012: 581-583.

神经网络经济学范文第3篇

由于人体与疾病的复杂性,不可预测性,非常适合人工神经网络的应用。目前的研究几乎涉及从基础医学到临床医学的所有方面,主要应用于生物信号的检测与自动分析,医学专家系统等。

在麻醉与危重医学相关领域的研究涉及到多生理变量的分析与预测,从临床数据中发现一些尚未发现或尚无确切证据的关系与现象,信号处理,干扰信号的自动区分检测,各种临床状况的预测,单独或结合其他人工智能技术进行麻醉闭环控制等。

在围术期和重症监护与治疗阶段,需要获取大量的信息,将可能在信号处理、基于动态数据驱动的辅助决策专家系统、数据挖掘、各种临床状况的预测、智能化床旁监护、远程医疗与教学、医疗机器人等各方面广泛运用到人工神经网络技术和其他人工智能技术。

一、概述

人工神经网络(Artificial Neural Network, ANN)是人工智能(Artificial Intelligence, AI)学科的重要分支。经过50多年的发展,已成为一门应用广泛,涉及神经生理学、认识科学、数理科学、心理学、信息科学、计算机科学、微电子学等多学科交叉、综合的前沿学科。

现代计算机的计算构成单元的速度为纳秒级,人脑中单个神经细胞的反应时间为毫秒级,计算机的运算能力为人脑的几百万倍。可是,迄今为止,计算机在解决一些人可以轻而易举完成的简单任务时,例如视觉、听觉、嗅觉,或如人脸识别、骑自行车、打球等涉及联想或经验的问题时却十分迟钝。也不具备人脑的记忆与联想能力,学习与认知能力,信息的逻辑和非逻辑加工能力,信息综合判断能力,快速的高度复杂信息处理速度等。

造成这种问题的根本原因在于,计算机与人脑采取的信息处理机制完全不同。迄今为止的各代计算机都是基于冯*纽曼工作原理:其信息存储与处理是分开的;处理的信息必须是形式化信息,即用二进制编码定义;而信息处理的方式必须是串行的。这就决定了它只擅长于数值和逻辑运算。而构成脑组织的基本单元是神经元,每个神经元有数以千计的通道同其他神经元广泛相互连接,形成复杂的生物神经网络。生物神经网络以神经元为基本信息处理单元, 对信息进行分布式存储与加工, 这种信息加工与存储相结合的群体协同工作方式使得人脑呈现出目前计算机无法模拟的神奇智能。

人工神经网络就是在对人脑神经网络的基本研究的基础上,采用数理方法和信息处理的角度对人脑神经网络进行抽象,并建立的某种简化模型。一个人工神经网络是由大量神经元节点互连而成的复杂网络,用以模拟人类进行知识的表示与存储以及利用知识进行推理的行为。一个基于人工神经网络的智能系统是通过学习获取知识后建立的,它通过对大量实例的反复学习,由内部自适应机制使神经网络的互连结构及各连接权值稳定分布,这就表示了经过学习获得的知识。

人工神经网络是一种非线性的处理单元。只有当神经元对所有的输入信号的综合处理结果超过某一门限值后才输出一个信号。因此神经网络是一种具有高度非线性的超大规模连续时间动力学系统。它突破了传统的以线性处理为基础的数字电子计算机的局限,标志着人们智能信息处理能力和模拟人脑智能行为能力的一大飞跃。

近20年来,神经网络的软件模拟得到了广泛研究和应用,发展速度惊人。1987年在圣地亚哥召开了首届国际神经网络大会,国际神经网络联合会(INNS)宣告成立。这标志着世界范围内掀起神经网络开发研究热潮的开始。

二、医学领域应用现状与前景

由于人体与疾病的复杂性,不可预测性,在生物信号与信息的表现形式、变化规律(自身变化与医学干预后变化),对其检测与信号表达,获取的数据及信息的分析、决策等诸多方面均存在大量复杂的非线性关系,非常适合人工神经网络的应用。目前的研究几乎涉及从基础医学到临床医学的所有方面,主要应用于生物信号的检测与自动分析,医学专家系统等。

1、信号处理:

在生物医学信号的检测和分析处理中主要集中对心电、脑电、肌电、胃肠电等信号的识别,脑电信号的分析,听觉诱发电位信号的提取,医学图像的识别和数据压缩处理等。

2、医学专家系统

医学专家系统就是运用专家系统的设计原理与方法, 模拟医学专家诊断、治疗疾病的思维过程编制的计算机程序, 它可以帮助医生解决复杂的医学问题, 作为医生诊断、治疗的辅助工具。 “传统”的专家系统,通过把专家的经验和知识以规则的形式存入计算机中,建立知识库,用逻辑推理的方式进行医疗诊断。但一些疑难病症的复杂形式使其很难用一些规则来描述,甚至难以用简单的语言来表达;专家们常常难以精确分析自己的智能诊断过程。另一方面,基于规则的专家系统,随着数据库规模的增大,可能导致组合爆炸,推理效率很低。由于人工神经网络能够解决知识获取途径中出现的“瓶颈”现象、知识“组合爆炸”问题以及提高知识的推理能力和自组织、自学习能力等等, 从而加速了神经网络在医学专家系统中的应用和发展。

Sordo比较了采用不同网络结构和学习算法的神经网络在诊断胎儿唐氏综合征(Down’s Syndrome) 上的成绩。正确分类率为84 %, 超过了现今所用的统计方法的60 %~70 % 的分类率。

台湾DEU科技(德亚科技)开发的计算机辅助检测系统Rapid ScreenTM RS-2000为全世界最先通过美国FDA认证的早期肺癌辅助诊测系统。该产品采用人工智能神经网络ANN,自动标识数字胸片中可疑结节区。经台湾和美国的临床实验,可使放射专家检测T1期肺癌的能力明显提高(潜在提升约15 %以上)。

DeGroff等使用电子听诊器和人工神经网络制造了一种仪器,它可正确地区分儿童生理性和病理性杂音。用电子听诊器记录的儿童心音,输入能识别复杂参数的ANN,分析的敏感性和特异性均达100%。

3、其他:

生物信息学中的研究中可应用于基因组序列分析、蛋白质的结构预测和分类、网络智能查询等方面。

药学领域广泛应用于定量药物设计、药物分析、药动/药效学等方面。例如:用于预测药物效应。Veng-Pederson用神经网络预测阿芬太尼对兔心率的影响,对用药后180-300分钟的药物效应取得了较好的预测结果(平均相对预测准确度达78%)。分析群体药动学数据,以获知群体药动学特征和不同人口统计因子对药物行为的影响,对临床用药具有指导意义。

4、麻醉与危重医学相关领域的研究

手术室和ICU内是病人信息富集的地方,而且大量的信息处在动态变化中,随着医学技术的飞速进步,所能获取的信息越来越多,医护人员面临着“信息轰炸”。神经网络技术可以很好地帮助我们应对这些问题。例如:

1)可以用于分析多个生理变量之间的关系,帮助研究其内在的关系,或预测一些变量之间的关系:Perchiazzi在肺损伤和正常的猪容量控制机械通气中,用ANN估计肺顺应性的变化,不需要中断呼吸,与标准方法相比误差很小。

2)结合数据挖掘技术,可能从海量数据库例如电子病历系统中,发现一些尚未发现或尚无确切证据的关系与现象:Buchman 研究了神经网络和多元线形回归两种方法,用病人的基本资料、药物治疗差异和生理指标的变化预测在ICU延迟(>7天)。

3)信号处理:Ortolani等利用EEG的13个参数输入ANN,自行设计的麻醉深度指数NED0-100作为输出,比较NED与BIS之间有很好的相关性;

4)干扰信号的自动区分检测:Jeleazcov C等利用BP神经网络区分麻醉中和后检测到的EEG信号中的假信号,是传统EEG噪音检测方法的1.39-1.89倍。

5)各种临床状况的预测:Laffey用ANN预测肌肉松弛药的残留,发现明显优于医生的评估,还有用于预测propfol剂量个体差异的,预测术后恶心、呕吐,预测全麻后PACU停留时间,预测ICU死亡率等较多的研究。

神经网络经济学范文第4篇

关键词:手机用户分类;AdaBoost;BP神经网络;增量学习;手机广告

中图分类号:TP274 文献标识码:A 文章编号:1007-9599 (2011) 23-0000-01

Mobile Phone Users Classification Forecast Based on AdaBoost and BP Neural Network Incremental Learning

Zhang Ran

(Sun Yat-sen University,Guangzhou 510006,China)

Abstract:With the overall popularity of 3G networks,mobile advertising business has become a marketing tool to seize the market,but the precise nature of mobile advertising is a more prominent issue.This article describes the BP neural network and the basic principles of AdaBoost algorithm to study the application of BP neural network algorithm AdaBoost with incremental learning model that records based on user click history to predict the mobile phone users are interested in advertising categories,in order to improve the mobile advertising the accuracy.

Keywords:Phone user classification;AdaBoost;BP neural network;Incremental learning;Mobile advertising

一、引言

随着移动无线第三代网络技术的迅速普及以及智能手机的飞速发展,手机广告作为继传统媒体报纸、杂志、广播、电视的第5代媒体平台吸引着广大商家的眼球。根据工信部调查数据显示,截至今年4月底,我国手机用户已突破9亿户大关,其中3G用户总数为6757万户,因此手机广告是推销产品的另一有效途径。但目前商家投放广告的方式十分粗放,缺乏目标性,收效甚微。

手机广告针对用户的投放具有实时性,同时手机用户的兴趣及需求也是随时间不断发生变化的,致使不能一次性获得全部训练样本以得到适当的网络结构。

针对上述问题,本文在研究AdaBoost方法结合BP神经网络算法的基础上,提出了增量学习模型应用于手机用户分类。增量学习是对所获得的数据逐步学习,预测结果是基于逐步学习的基础上所得,这充分利用手机用户历史点击记录数据,对手机用户的分类进行预测,并根据预测结果投放相应类别的手机广告,从而得到较为理想的广告投放效果。

二、BP神经网络

BP神经网络是基于误差传播的多层前馈网络算法,标准的BP神经网络由输入层、隐含层及输出层三层神经元构成,其中隐含层可为一层或多层,其主要特征为:相邻两层神经元之间采用全互连方式,各层内神经元之间无连接。输入信号传播到隐含节点,经隐含节点的转换和处理,再传播至输出节点,最后经输出节点的转换和处理得到输出结果。模型结构见图1

图1 三层BP网络的拓扑结构

每层神经元与下一层所有的神经元连接,箭头表示信息的流动。其中xi表示输入层第i个神经元的输入信号,ωij表示输入层与隐层之间的连接权重,ωjk表示隐层与输出层之间的连接权重,yj表示隐层神经元,ok表示输出层第k个神经元的输出信号。

假定输入层数为n,输出层数为m,那么BP网络便是一个从n维欧氏空间到m维欧氏空间的映射。

BP学习算法把学习过程分为两个阶段:信息正向传播和误差反向传播。

三、AdaBoost算法

AdaBoost算法的基本思想是针对不同的训练集训练同一个基本分类器,然后把这些不同训练集上得到的分类器联合起来,构成一个最终的强分类器。在基本分类器的分类能力比随机猜测好的情况下,则可以得到好的分类效果。

四、基于增量学习的手机用户分类模型

(一)手机用户特征分析

手机广告的投放可根据对用户特征的分析,依据分析结果为手机用户投放其感兴趣的广告,从而提高其投放的精准度,减少用户查找感兴趣商品的同时也可以给广告主带来收益。

手机用户的特征可分为静态特征和动态特征两类:

静态特征:手机号码,姓名,性别,年龄,城市,行业,收入水平,兴趣爱好。

动态特征:用户点击过的手机广告的次数,点击时间,点击广告类别。

(二)增量学习算法描述

增量学习需要满足以下条件:

(1)能够从获得的新数据中学到知识;

(2)在学到新知识的同时要保留以前所学知识;

(3)不需要对以前的数据进行重新学习。

增量学习算法描述:

针对每一批数据样本集执行如下步骤:

(1)初始化样本的分布Dt;

(2)根据样本分布Dt,通过对训练集S进行抽样(有回放)产生训练集St。

在训练集St上训练分类器ht;

(3)用分类器ht对原训练集S中的所有样本分类,得到本轮的分类器ht:XY,并计算分类误差及分类器的权重;

(4)更新每个样本的权值;

(5)循环至产生T个弱分类器;

(6)依各分类器的权值得出强分类器的预测结果

对到达的N个不同训练数据集,依据上述步骤产生N个不同的强分类器,每个强分类器产生一个输出结果,对N个强分类器的结果求加权和,值最大者便为对应的用户感兴趣类别,即最终的输出结果。

五、结论

本文通过对手机用户特征分析,得到手机用户的静态特征及动态特征。并在研究BP神经网络算法以及AdaBoost方法的基础上,提出了增量学习模型,静态特征及动态特征作为该模型的输入,用户感兴趣的广告类别作为该模型的输出,通过对手机用户点击广告产生的历史信息记录进行增量学习,从而达到对未知用户感兴趣广告类别的精准预测。

参考文献:

神经网络经济学范文第5篇

(辽宁工业大学学生工作处,辽宁锦州121001)

摘要:在当今网络飞速发展的社会环境下,大学生的生活方式、价值观念等都受到来自各方面的影响,相对传统的学生谈话工作就有了一定的局限性,因此,如何充分利用网络加强与学生的交流,深化学生谈话工作的效果越来越受到辅导员的重视。本文论述了学生谈话工作的作用及重要意义,并在对网络环境的特点进行分析的基础上,对利用网络环境深化学生谈话工作的必要性和可行性进行了探讨。

关键词 :网络环境;大学生;谈话工作;现实需要;可行性

中图分类号:G641文献标识码:A文章编号:1671—1580(2014)12—0025—02

收稿日期:2014—06—12

作者简介:朱长旭(1983— ),男,辽宁锦州人。辽宁工业大学学生工作处,讲师,硕士,研究方向:思想政治教育。

辅导员工作的重中之重莫过于对学生进行思想教育工作。长久以来,辅导员在日常工作中面对不同的学生,通过交流了解学生的思想动态,解决学生学习和生活中存在的问题,以达到或鼓励、或教育、或安慰、或帮助等目的。随着网络平台的飞速发展,大学生的学习、生活、沟通方式等在不断地发生变化,因此,网络环境中的交流也逐渐成为学生谈话工作的主要方式。

一、辅导员谈话工作的作用及重要意义

面对面谈话是一种最常见的交流方式,也是高校辅导员的一项基本功,对学生进行思想工作的效果与辅导员的谈话水平有着密切的关系。辅导员工作的实效性、长效性也正是在大量谈心工作的基础之上实现的。谈心是师生交流思想、相互了解、相互影响的过程,辅导员则是这个过程的主导者,其谈心的方式、方法是影响谈心效果的关键性因素。恰到好处的谈心不仅可以拉近学生与辅导员之间的距离,同时还能使学生逐渐建立对教师的信任,从而使辅导员能够进一步融入到学生中,更加深入地了解学生,有效地开展工作。

二、在网络环境下深化学生谈话工作的现实需要

(一)学生网民逐渐增多,网络对学生的影响逐步加深

当今,随着网络的迅猛发展,人们生活的重心、工作方式等都相对发生了不同程度的改变,特别是互联网的日益普及对青年学生的思想观念、价值取向、行为方式、思维方式等产生了深刻的影响。根据中国互联网信息中心(CNNIC)的调查,2008年,中国网民的数量已经达到2.53亿人,中国网民的规模已经跃居世界第一位,而中国网民的主体主要是30岁以下的年轻群体,而年轻群体中又以学生网民所占的比例最大,达到了30%,学生网民已经达到7600万人。

(二)网络环境可以弥补传统谈话工作的局限性

首先,传统的谈心工作必须依托于一定的思想政治教育活动,辅导员对于谈话的目标、过程、方式、场所等必须要准备细致,但由于受时间和空间的局限,谈心工作的作用必然会受到影响。网络环境减少了学生与教师面对面谈话中产生的尴尬和抵触情绪,交流方式更容易为学生所接受。

其次,在网络环境下更容易观察谈话工作的效果。传统的谈话结束之后,经过一段时间后需要再次与谈话对象进行谈话,间断性地了解学生的变化。而网络中的言论相对自由,通过观察学生的日志、留言或空间等可以随时了解学生在谈话后的状态。

第三,在网络环境中谈话形式多变,便于提高工作效率。在网络环境中,学生谈话工作会出现多种形式的变化,可以是短讯、微博,也可以是评论、留言等。在网络环境下,可以缩短谈话工作之初将学生引入话题的时间,还可以将一次总体的谈话过程分解成只言片语,延长谈话对学生起作用的时间,而且可以同时和几名同学进行单独谈话,大大提高了谈话工作的效率和时效性。

(三)网络环境适应大学生心理发展的规律

学生接受某种意见而让自己发生改变的前提条件是对该种意见不反感,愿意去尝试、调整,从而选择接受这种意见。传统谈话工作由于其面对面的谈话方式,往往容易引起学生逆反心理和对抗心理的出现。加之随着学生的独立意识和自我意识的不断加强,他们对事物的批判态度以及行动上的反抗意识都愈发强烈。因此,利用网络环境,采取教育目的隐蔽、教育方法间接的谈话方式来消除学生的逆反心理,冲破学生的心理防线是十分必要的。

三、在网络环境下深化学生谈话工作的可行性

(一)网络的超时空性使谈话工作不受时间和场地的限制

在网络环境中开展谈话工作不受课时和教室的限制,无需辅导员在固定的时间和地点面对面地对学生进行鼓励、安慰、批评等。这种交流几乎随时随地都可以进行,只要辅导员掌握了学生经常上网的时间段即可,例如每天晚饭后、周末等。在谈话过程中,在轻松愉悦的环境下,学生不仅更容易接受谈话内容,而且可以同时介绍身边同学的情况,扩大了辅导员对于学生群体了解的范围。

(二)网络交流的多样性使谈话工作具有多种多样的作用方式

在网络环境中,辅导员与学生互动的方式是多种多样的,谈话的内容、目的深藏于各种交流及载体之中,因此,这种谈话工作的作用方式也是多种多样的,可以是不定期的评论、留言,也可以是大规模的群组讨论,还可以是论坛中跟帖发表看法,等等。

(三)潜隐性使网络环境下的谈话更容易为大学生所接受

网络中的交流、谈心工作将变成一种没有实体的教育形式,它可以在校园内无处不在地发挥作用,使学生在信息交换过程中不知不觉地受到教育,在“无形”的氛围中潜移默化地受到影响,因此,在网络环境中开展谈话工作存在着很强的潜隐性。

(四)网络交流的无意识性促使学生不知不觉地配合辅导员完成谈话活动

春风化雨,润物无声。可以利用网络环境中丰富的活动形式,通过各种各样的传播渠道,针对学生的兴趣、爱好,使其参与到活动中,同时无意识地吸收其中所隐藏的教育内容。

四、在网络环境下深化学生谈话工作的有效途径

(一)占领博客阵地,加强交流,深化学生谈话工作

博客是一种简易的个人信息方式,任何人都可以注册,并完成个人网页的创建、和更新,因此,受到广大青年学生的喜爱。特别是微博,其已经成为一种时尚,深受当代大学生的推崇。大学生通过博客可以自由地表达自己的想法,通过博客记载和分享自己的生活经历与美好时刻,更可以结识朋友,进行更深层次的交流。

(二)建立大学生主题网站,营造交流氛围

建立以了解学生、引导学生、服务学生为宗旨的大学生主题网站,开展丰富多样的网络文化活动,抓住大学生的特点和兴趣,建立学生论坛、贴吧等,通过观察网站中学生所关注的热门话题,对大学生进行正确的引导。

(三)利用网络聊天工具建立网络群体

随着工作环境的不断改进,电脑、网络已经成为辅导员工作的主要工具。辅导员可以充分利用QQ、飞信等聊天工具,建立网络群体,与学生随时在线交流,了解学生关注的热门话题,参与学生在群内的讨论,发表自己的观点,引导学生的思想主流。辅导员还可以在群内发送校内外的各类新闻,提高学生对群的关注度,努力在群中营造平等交流的氛围,使学生畅所欲言,表达自己的真实观点,从而更充分地了解学生的内心世界。

随着网络时代的来临,通过网络平台、利用网络环境的优势有效地开展谈心工作,对每一位辅导员来说既是机遇,也是挑战。在网络环境中开展具有实效性、长效性的思想政治教育工作必将达到事半功倍的效果。

参考文献]

[1]李玉泉,王娜.高校校园网络文化建设的探索与实践[J].思想教育研究,2007(6).

[2]高金环.网络环境下的大学生思想政治教育[J].西安邮电学院学报,2007(1).

[3]张会萍.网络环境下高校思想政治教育的途径[J].新视野,2010(8).