首页 > 文章中心 > 神经网络算法的优点

神经网络算法的优点

前言:想要写出一篇令人眼前一亮的文章吗?我们特意为您整理了5篇神经网络算法的优点范文,相信会为您的写作带来帮助,发现更多的写作思路和灵感。

神经网络算法的优点

神经网络算法的优点范文第1篇

【关键词】改进型BP型神经网络;模型参考;BP算法

引言

在现代化的工业生产中,随着生产率的不断提高,对产品质量品种提出了越来越高的要求,使得生产过程变得日益复杂,要在越来越复杂的动态系统及过程与环境高度不确定的情况下获得更好的的控制效果,这就使得控制面临新的挑战。

1、BP神经网络及其改进算法

1.1BP神经网络及传统BP算法存在的问题

BP神经网络是基于误差反向传播算法(BP算法)的多层前向神经网络,BP算法也已成为目前应用最为广泛的神经网络学习算法,其三层前馈神经网络拓扑结构如图1所示。

其中,网络响应函数为:(1)

BP算法按梯度下降的原则多次修改输入层至隐含层,隐含层至输出层的相应权值,直到满足精度要求或网络不收敛。众所周知,BP网络的学习过程是对一个高度非线性函数求全局最优问题,网络训练中存在两个比较典型的问题。一是收敛速度慢,二是容易陷入局部极小。对此已有很多学者提出了各种解决方案和修正算法,如累计误差校正算法、S函数输出限幅算法、结合遗传算法的优化权值算法等。

1.2传统BP算法的改进

BP算法存在的上述两个问题,其原因在本质上是相同的,都是由于网络的响应函数造成的。BP算法中每次调节网络权值的幅度均按与响应函数导数成正比进行,这样,在误差曲线平面较平坦处,网络误差大,偏导数值小,权值参数的调节幅度也较小,致使需多次调整才能降低误差曲面;而在误差曲面曲率较高处偏导数数值较大,权值参数调节的幅度也较大,致使在误差函数最小点附近发生过冲现象,产生振荡,难以收敛到最小点。现通过惯性校正方法及重新构造响应函数法来克服这两个问题。

1.2.1惯性校正法

分别对这些情况进行仿真,得到图3和图4所示的仿真结果,图3是基于传统的BP神经网络作为控制器而得出的波形图对比,图4是基于改进型BP神经网络作为控制器得出的波形图对比。

图3中的曲线为参考模型输出和改变参考模型参数时的波形输出对比.其中,波形幅值最小的是参考模型输出结果,改变系统模型的参数,输出基本上能够跟随系统输出,改变参数过大时,结果也可以在接受的范围之内.实验结果表明,当系统的数学模型和参考模型有较大差异时,采用传统BP神经网络而建立的自适应控制器,尽管利用这种控制策略可以获得比较满意的结果,但是,系统的稳定性较差,收敛性也比较慢些。

图4中的曲线也是参考模型输出和改变参考模型参数时的波形输出对比,其中,波形幅值最小的是参考模型输出结果,改变系统模型的参数,输出基本上跟随系统输出,改变参数过大时,结果仍然在接受的范围之内.实验结果表明,当系统的数学模型和参考模型有较大差异时,采用改进型BP神经网络而建立的自适应控制器,要比传统的BP神经网络而建立的自适应控制器具有更好的稳定性和更好的跟踪效果。

4、结论

借助BP神经网络的优点而建立的自适应控制器策略,不需被控对象的数学模型,只需对神经网络进行训练,然后利用训练结果进行控制系统设计。仿真结果可以看出,改进型BP网络结合自适应控制设计出的控制器,比传统的BP网络结合自适应控制设计出的控制器能够更好的跟踪被控对象.

参考文献

神经网络算法的优点范文第2篇

关键词:RBF神经网络;数据挖掘;遗传算法

中图分类号:TP18 文献标识码:A 文章编号:1009-3044(2016)07-0151-03

Research on Data Mining Method Based on RBF Neural Network

CAO Jia-jie, YANG Meng, XU Xin-yu

(Beijing Satellite Manufacturing Plant, Beijing 100000, China)

Abstract: The rapid development of Internet technology and database technology is widely used at the same time, human through information technology to collect data is more and more strong, and how to from a lot of data mining valuable information and knowledge has become particularly urgent. In order to solve the above problems, data mining technology arises at the historic moment. It is found that the data mining the data for the nonlinear, messy and the presence of noise data, neural network is by virtue of the degree of fault tolerance, distributed storage, parallel processing, adaptive and robust feature is widely used to deal with some of the data mining problems. Accordingly, in this case, the author first introduces the data mining and RBF neural network of the relevant theoretical knowledge, and then focus on the RBF neural network based on the data mining method for peer reference.

Key words: RBF neural network; data mining; genetic algorithm

数据挖掘是从大量数据中挖掘有价值的信息和知识,以便为管理决策和战略部署提供数据支撑。数据挖掘作为信息技术发展的结果,其应用前景相当广泛。数据库技术主要研究数据的组织、存储、获取和处理,而信息技术主要经历以下发展历程:数据的简单收集和数据库的初期建设数据的存储与检索、数据库的事务处理数据的分析与理解,此时便出现数据挖掘技术。基于上述研究背景,下文首先分别介绍数据挖掘与RBF神经网络的相关理论知识,并在此基础上,讨论基于RBF神经网络的数据挖掘方法,目的是为了研究数据挖掘所用到的分类算法。关于神经网络,作为一种人工智能技术,其一方面可以省去繁琐的数学建模和数学推理,另一方面在处理含噪声的非线性数据时表现出无与伦比的优越性。

1 数据挖掘

数据挖掘是非平凡的数据处理过程,即识别数据集中具有潜在价值、新颖有效且最终可被理解的模式,其中潜在价值指的是挖掘出的知识具有实际效用;新颖是指识别出的模式新颖;有效是指识别出的模式在一定程度上是正确的;最终可被理解是指识别出的数据可被用户理解。图1所示为数据挖掘的工作流程。

如图1所示,数据挖掘主要经历数据准备、模式提取、结果解释与评估等阶段,其中数据准备的步骤为:数据清洗数据选取数据预处理数据表示;数据提取阶段又称数据挖掘阶段,其实现步骤为:确定数据挖掘的目标或任务选取适宜的数据挖掘工具或算法进行数据挖掘操作;结果解释与评估阶段主要对所识别的数据进行评估、筛除。一般来讲,数据挖掘质量主要与以下影响因素有关:数据挖掘技术的可靠性与有效性;目标数据的数量与质量。总之,数据挖掘是一个反复反馈的过程,而可视化贯穿在数据挖掘的全过程。

数据挖掘的方法一般分为统计型、机械学习型两大类,而较为常用的算法包括遗传算法、神经网络等。遗传算法是一种以生物进化理论为基础的优化空间搜寻法,其在数据挖掘中,通常以搜索问题的形式来表述具体的任务,并通过选择、交叉、变异遗传等操作寻得最优解。神经网络是一种与人类大脑重复学习类似的方法,即通过学习和训练一些事先给出的样本,产生与样品有所区别的特征和模式,其中样本集应具有代表性。研究表明,神经网络具有准确预测复杂的问题、有效处理存在噪声的数据等优点。神经网络一般分为自组织、反馈式和前馈式神经网络,目前正被广泛应用于商业领域。

2 RBF神经网络

RBF网络结构是一种由输入层、隐含层和输出层组成的三层前向网络,其中输入层包含信号源结点;隐含层主要由节点数目描述的具体问题而定;输出层主要响应输入模式的具体作用。图2所示为RBF神经网络的拓扑结构模型。

如图2所示,RBF网络由输入层向隐含层变换的过程具有非线性的特征,而由隐含层向输入层变化的过程具有线性的特征。据此可知,RBF神经网络是一种基于前馈网络的拓扑结构。研究发现,RBF神经网络拓扑结构会对自身的性能产生影响,而以下因素又会对RBF网络拓扑结构产生影响:RBF的隐节点数目、中心矢量、径向基函数宽度和隐含层与输出层的权值矩阵。

RBF网络具有较强的非线性逼近性能。得益于此,其目前主要用来实现非线性系统的建模与数据挖掘、贝叶斯规则和连续输入/出数据对的映射建模。与其他前向神经网络相比,RBF神经网络具有以下优点:

1)RBF神经网络能逼近任意非线性映射,也能处理系统内部的规律性问题。就无噪声数据而言,RBF神经网络模型的预测精度高且拟合能力强;而就存在噪声的数据来讲,RBF神经网络模型的预测误差和拟合误差均偏低,且收敛速度相当快。得益于此,RBF神经网络在时序建模和分析中的应用十分广泛。

2)RBF神经网络的拓扑结构加快了学习速度和规避了局部极小的问题。RBF神经网络采用核函数,特别是高斯函数的使用使得核函数的优点更为突出:表示简单、光滑性好和解释性好等。

3)RBF神经网络的可解释性好。目前,以下理论均可用于RBF网络参数和拓扑结构的解释中:RBF网络能够对输入层转向输出层进行映射;核回归能够逼近存在噪声的函数噪声数据插值能够逼近输入缺少函数;规则化可以通过在一般化与精确匹配中寻求平衡;贝叶斯规则可以根据前概率计算出后概率。

3 基于RBF神经网络的分类数据挖掘

关于RBF神经网络的研究,其主要表现在以下两个方面: RBF网络结构模型; RBF神经网络学习算法。

3.1 RBF网络结构模型

在实际应用中,RBF模型的应用范围更广,其核函数使用的是高斯函数。但研究发现,在上述结构模型中,训练算法的优劣会对模型的应用效果和RBF网络性能的高低产生决定作用。鉴于此,研究人员提出一些具有新特点和新性能的网络模型,具体包括:

1)高斯型核函数一般化。当隐含层RBF采用以下高斯条函数时,将大大改善RBFN的综合性能:[Φ?x)=exp-(x-cj?T(x-cj)]/2σ2j]。对于普通高斯函数,其拥有半径相同的变量轴和超球面状的函数曲面。但与此相比,高斯条核函数拥有超椭球面状的函数曲面和半径不同的变量轴,因此它具有更强的样本点逼近能力和更大的网络训练工作量。

2)WNN(小波神经网络)。WNN是一种基于小波函数的函数连接型网络,因此在一定程度上应被看作RBFN的推广形式。WNN的激活函数为小波函数,具体以仿射变换的方式创建网络参数与小波变换之间的联系,因此所表现出的特点与RBFN有所差异。此外,WNN具有极佳的时频特征,因此被广泛应用于图像处理和模式识别等领域。

3)RBPNN(径向基概率神经网络)。RBPNN作为RBFNN与PNN综合发展的结果,其学习收敛速度比RBFN更快,同时也将模式之间的交错影响考虑其中。关于RBPNN,其结构主要由2个隐含层、1个输入层、2个输出层组成,其中第一个隐含层为非线处理层,具体包括隐中心矢量,此乃网络结构优化的核心对象;在输出层得出输入样本概率密度的估算值,可降低计算的复杂度。

4)GRNN(广义回归网络)。GRNN使用的也是高斯型径向基函数,一般被看作RBFN的变换形式。GRNN的结构主要由模式层、输入层、加和层、输出层组成,其中核函数所包含的平滑因子需采用优化或经验方法来选定。

3.2 RBF神经网络学习算法

在RBF网络设计中,最为核心的问题是如何合理确定中心点的位置、数目和训练网络权值。通常情况下,中心点的确定与权值的训练既可分开实现,又可同时进行。鉴于此,RBF网络可以采用以下两类学习算法:

3.2.1 静态学习算法

静态学习算法是一种离线学习算法,即在离线设计RBF网络时,中心点的确定与权值的训练分开进行。

1)随机确定RBF中心点,即随机从训练数据集中选取RBF中心点。当RBF选取以下高斯函数:[G(X-Cj2=exp(-m/d2maxX-Cj)j=1,2,...,m],其中,[Cj]――RBF的中心点;[m]――中心数;[dmax]――相邻中心点最大的间隔距离,因此高斯径向基函数的宽度[σ=dmax/2m]。利用上述算法,可以避免RBF的形状出现过平或过陡两种极端现象。如此一来,便可通过计算线性方程组的方式来确定输出层与隐含层的连接权值。

2)自组织学习确定RBF中心点。混合学习过程主要包括自组织学习阶段、监督学习阶段,其中自组织学习阶段的任务是采用聚类算法来估计隐含层RBF的中心点;监督学习阶段主要通过对输出层线性权重进行估计来设计网络,具体采用最小二乘法。输出层节点的LMS算法与隐含层节点的K-均值聚类同时进行,以加速学习过程。

3)有监督学习确定RBF中心点,即通过有监督学习解得RBF的中心点和自有参数,具体使用牛顿法或梯度下降法等。如果使用梯度下降法,则应从参数空间的某一有效区域开始进行搜索,即先利用RBF网络得到高斯分类算法,再以分类结果为搜索点,以免学习程收敛至局部极小。

3.2.2 动态学习算法

动态学习算法是一种在线学习算法,其主要在在线数据挖掘环境中使用。由于在在线数据挖掘环境中,通常不会全部给定训练样本,因此如果隐含层中心点与单元数目的确定采用静态学习算法,则解算结果不一定最优,而在线学习算法支持动态删除或加入隐含层节点,且隐含层中心点的确定和权值的训练同时进行,因此可以动态构造网络。

1)以分组优化策略为基础的在线学习法。训练神经网络是约束优化的过程,则需对特定的神经网络类型进行深入探讨。以下内容为在线隐含层单元的确定策略:当输入的训练样本同时满足以下条件时,则为之分配相应的隐含层但愿你:网络输出误差比误差的设定阀值大;输入样本与隐层中心点之间的距离比距离的设计阀值大。如果在RBF神经网络在线训练方式中引入分组优化策略,则网络输出与网络权值之间存在线性关系,同时与隐含层单元的宽度、中心点之间存在非线性关系,表明尽量采取不同的优化方法来处理两部分的参数。

2)最近邻聚类算法。最近邻居类算法作为动态自适应聚类学习算法,由其聚类得出的RBF网络不仅最优,且支持在线学习。最近邻聚类算法的实现过程为:

① 设定高斯函数宽度为r,定义矢量A(l)存放输出矢量的总和,定义计数器B(l)统计样本数量,其中类别数目为l。

② 对于数据对[(x1,y1)],于[x1]上创建1个聚类中心,并令[x1=c1],[y1=A(1)],[B(1)=1],那么在RBF网络中便仅存在1个中心为[c1]的隐含层单元,且隐含层单元与输出层的权矢量[w1=A(1)/B(1)]。

③ 对于数据对[(x2,y2)],解得[x2]与[c1]之间的距离[x2-c1]。假设[x2-c1≤r],那么[x2]的最近邻聚类为[c1],假设[A(1)=y1+y2],[B(1)=B(1)+1],[w1=A(1)/B(1)];假设[x2-c1>r],那么以[x2]为新的聚类中心,同时假设[c2=x2],[A(2)=y2],[B(2)=1]。根据上述要求创建的RBF网络,再在其中加入一个隐含层单元,其与输出层之间的权矢量[w2=A(2)/B(2)]。

④ 假设第k个数据对[(xk,yk)(k=3,4,...,n)]的聚类中心数为M,相应的中心点为[c1,c2,...,cm],则由此创建的RBF网络中便存在M个隐含层单元。据此,解得[xk]与M个聚类中心的间距为[xk-ci,i=1,2,...,M],假设两者的减小间距为[xk-ci],那么[xk]的最近邻聚类为[ci]。根据第一、二数据对的计算步骤,解得当[xk-ci>r]时,第M个隐含层单元与输出层之间的权矢量[wM=A(M)/B(M)];当[xk-ci≤r]时,隐含层单元与输出层之间的权矢量[wi=A(i)/B(i),i=1,2,...,M]。研究发现,动态自适应RBF网络的难易程度由r所决定,即聚类数目与r呈负相关,即r越小,聚类数目越多,则计算量越大和精度越高,反之亦然。总之,最近邻聚类法具有性能优点、计算量小河学习时间短等优点,不仅可以通过确定隐含层来建立RBF神经网络,还可以在动态输入模式在线学习中得到有效应用。

综上,RBF网络是一种具有最佳拟合和全局逼近性能的前向型神经网络,其无疑具有广阔的应用前景,但在实际应用中,应当考虑到局部极小问题的存在,进而保障其应用效果。

参考文献:

[1] 储兵,吴陈,杨习贝,等.基于RBF神经网络与粗糙集的数据挖掘算法[J].计算机技术与发展,2013,23(7):87-91.

[2] 宫晓曼,滕荣华.基于神经网络的数据挖掘在煤矿选煤中的应用[J].煤炭技术,2013(9):127-128.

[3] 魏文轩.改进型RBF神经网络在股票市场预测中的应用[J].统计与决策,2013(15):70-72.

[4] 曹东方,王玉恒.数据挖掘在员工考评管理信息系统中的应用[J].河北工业科技,2012,29(5):323-326.

[5] 姚应水,叶明全.RBF神经网络与logistic回归模型的对比研究[J].中国卫生统计,2011,28(4):397-399.

[6] 张会敏,叶明全,罗永钱等.基于RBF神经网络的老年痴呆症智能诊断研究[J].中国数字医学,2015(6):38-41.

[7] 习勤,米帅军.指标筛选技术在神经网络数据挖掘模型中的应用[J].统计与决策,2011(10):163-165.

[8] 林涛,葛玉敏,安玳宁等.基于 RBF 神经网络的钢构件质量追溯系统研究[J].计算技术与自动化,2015(1):20-24.

神经网络算法的优点范文第3篇

摘要:常规PID控制器以其算法简单、可靠性高等优点,在工业生产得到了广泛应用。但是,PID控制器存在控制参数不易在线实时整定、难于对复杂对象进行有效控制等不足。利用神经网络自学习、自适应和非线性映射等特点,将神经网络和PID控制相结合,形成一种PID神经网络控制系统,可对工业中使用的具有大时滞、慢时变、非线性特点的电炉系统进行有效辨识与控制。

关键词:PID神经网络;智能控制器;滞后系统;时变系统;电炉控制系统

中图分类号:TP18文献标识码:A文章编号:1009-3044(2009)28-8028-03

Application of PID Neural Network in Electric Cooker Controlling Systems

REN Hui, WANG Wei-zhi

(Institute of Automation, Fuzhou University,Fuzhou 350002, China)

Abstract: General PID controller, because its algorithm is simple and high reliability,so has been widely used in industrial production. However, PID controller, there is not easy to line real-time control parameter tuning, is difficult for complex objects such as lack of effective control. Using neural network self-learning, adaptive and nonlinear mapping characteristics of neural network and PID control combined to form a PID neural network control system can be used in industry with a large time lag, slow time-varying, nonlinear characteristics of electric systems for effective identification and control.

Key words: PID neural network;intelligent controller;time lag system;time-varying system;electric cooker systems

近年来,随着神经网络理论的发展,将控制中应用最广泛的PID的控制器与具有自学习功能的神经网络相结合,已成为智能控制研究的一个新方向。并且,在这个方向上已取得了一些研究成果 。其主要的结合方式是在常规PID控制器的基础上增加一个神经网络模块,利用神经网络来在线调节 PID参数,但缺点是结构较复杂。本文介绍的PID神经网络是将PID控制规律融进神经网络之中构成的,实现了神经网络和PID控制规律的本质结合。它属于多层前向网络,但是它与一般的多层前向网络又不完全相同,一般的多层前向网络中的全部神经元的输入输出特性都是相同的,而PID-NN的隐含层是由比例、积分、微分三个单元组成,是一种动态前向网络,更适合于控制系统。各层神经元个数、连接方式、连接权值是按控制规律的基本原则和已有的经验确定的,保证了系统稳定和快速收敛。由于PID神经网络控制器是将神经网络和PID控制规律融为一体,所以其既具有常规PID控制器结构简单、参数物理意义明确之优点,同时又具有神经网络自学习、自适应的功能,可将PID神经网络应用于对工业控制领域的复杂非线性对象的控制。

本文提出一种基于PID神经网络的控制方案,用来对大时滞、慢时变、非线性的电炉系统进行辨识与控制。

1 PID神经网络控制系统

1.1 PID神经网络的结构

PID神经网络是一个 3层的前向网络,包括输入层、隐含层和输出层,其结构如图1所示。网络的输入层有2个神经元,分别对应系统的输人和输出;隐含层有3个神经元,各神经元的输出函数互不相同,分别对应比例(P)、积分(I)、微分(D)3个部分;网络的输出层完成PID-NN控制规律的综合。网络的前向计算实现PID神经网络的控制规律,网络的反向算法实现PID神经网络参数的自适应调整。

1.2 控制系统结构及其工作原理

PID神经网络控制系统结构如图2所示。控制系统包含PID神经网络辨识器(PID-NNI )和PID神经网络控制器((PID-NNC )。其中r(k)为系统的设定输入,y(k)为被控对象的实际输出,y~(k)为PID-NNI的输出,u(k)为PID-NNC的输出。系统的工作原理是:利用神经网络的非线性函数逼近能力和学习记忆功能,由PID-NNI在线对被控对象模型进行辨识。它利用输出偏差(e1(k)=y(k)-y~(k) ),修正网络权值,使之逐步适应被辨识对象的特性。当它学习到与被控对象基本一致时,PID-NNC利用系统偏差 (e2(k)=r(k)-y~(k)),通过反传算法实时调整自身权值,以跟上系统的变化,达到有效控制的目的。

2 PID神经网络学习算法

神经网络算法的优点范文第4篇

关键词:神经网络;遗传算法;优化理论

一、引言

在人类的历史上,通过学习与模拟来增强自身适应能力的例子不胜枚举。模拟飞禽,人类可以翱游天空;模拟游鱼,人类可以横渡海洋;模拟昆虫,人类可以纵观千里;模拟大脑,人类创造了影响世界发展的计算机。人类的模拟能力并不仅仅局限于自然现象和其它生命体。自从20世纪后半叶以来,人类正在将其模拟的范围延伸向人类自身。

神经网络是人类对其大脑信息处理机制的模拟,早期的自动机理论假设机器是由类似于神经元的基本元素组成,从而向人们展示了第一个自复制机模型。近年来诸如机器能否思维、基于规则的专家系统是否能胜任人类的工作、以及神经网络能否使机器具有生物功能已成为人工智能关注的焦点。

遗传算法是一种更为宏观意义下的仿生算法,它模仿的机制是一切生命与智能的产生与进化过程。人类之所以能够向其自身的演化学习以增强决策问题的能力,是因为自然演化过程本质就是一个学习与优化的过程。

神经网络和遗传算法都是仿效生物处理模式以获得智能信息处理功能的理论,二者虽然实施方法各异,但目标相近,有很多特点相同,功能类似,对二者进行深入地对比研究,并取长补短,将二者综合运用是非常有意义的课题。

二、神经网络与遗传算法概述

自1943年第一个神经网络模型MP模型提出至今,神经网络的发展非常迅速,特别是1982年提出的Hopfield网络模型和1985年提出的8P算法。使神经网络逐步发展成为用途广泛的系统。神经网络是由大量神经元广泛互连。形成大规模并行处理和分布式的信息存储的复杂网络系统。单一神经元可以有许多输入、输出。神经元之间的相互作用通过连接的权重体现。神经元的输出是其输入的函数。虽然每个神经元的结构和功能极其简单和有限,但大量神经元构成的网络系统的行为则是丰富多彩的。神经网络计算的基本特征是大规模并行处理、容错性、自适应性和自组织性。大规模并行处理指能同时处理与决策有关的因素,虽然单个神经元的动作速度不快。但网络的总体并行处理速度极快。容错性指由于神经网络包含的信息是分布存储的,即使网络某些单元和连接有缺陷,仍可以通过联想得到全部或大部分信息。自适应性和自组织性指它可以通过学习,不断适应环境,增加知识的容量。

遗传算法最早由美国密执安大学的Holland教授在1975年发表的论文“自然和人工系统的适配”一文中提出。它是一种借鉴生物界自然选择思想和遗传机制的全局随机搜索算法,其实现方法是,从一个初始种群出发,不断重复执行选择、杂交和变异的过程,使种群进化越来越接近某一目标。它的基本特征是大规模并行处理、通用性、鲁棒性。大规模并行处理指遗传算法的操作对象是一组可行解而非单个解。搜索路径有多条而非单条,因而具有良好的并行性。通用性指只需利用目标的取值信息,而无需梯度等高价值信息,因而适用于任何大规模、高度非线性的不连续多峰函数的优化以及无解析表达式的目标函数的优化,具有很强的通用性。鲁棒性指算法的择优机制是一种软选择,再加上其良好的并行性,使它具有很好的全局优化性和稳定性。

三、神经网络与遗传算法在优点上的相似性

(一)二者都可对问题进行大规模的并行处理。整体上极大提高了运算速度。这是神经网络和遗传算法优于传统算法的最重要的特征。

对于神经网络来说,虽然每个神经元都要计算连接函数和传递函数(也称作用函数),但神经元的计算可以分布式地并行进行。对于遗传算法来说,每一个个体都需要根据适应值函数计算适应值,每一代都有很多个体,表面看来也有很大的计算量,但可同时对多个可行解进行操作,所以整体上与传统的计算方法相比,运算时间很短。从这一点来看,神经网络和遗传算法都需要发展分布式并行计算系统来替代传统的计算机,这种计算系统不再是传统计算机顺序执行命令的运行过程,而是希望对输入进行平行处理;这种计算系统不再是只包含一个或几个复杂的计算设备,而是由众多简单设备有机组成在一起共同执行相同的计算功能;一旦适合这种要求的硬件系统得到发展,神经网络和遗传算法将能得到更加广泛地应用,更有效地解决更大规模的实际问题。

(二)二者都具有高度的适应性和容错性

人工神经网络在解决某个具体问题时,可以反复用示例来训练它,在训练的过程中自组织自学习来适应新的情况。而且,由于神经网络中信息的分布式存贮,即使个别神经元出错,也不会导致网络运行的瘫痪,所以总体上具有较强的可靠性;而遗传算法通过每一代的选择过程来淘汰适应值较小的个体,保留适应值较大的个体,从而使收敛的结果趋于适应目标值,通过变异算子将每一代的种群空间扩大到个体空间,使每一个个体都有被选进种群的机会,每一个解都有机会参与计算。

(三)二者都通过对有限个可行解进行操作来获取对整个解空间的求解,实践证明对于其中已经相对成熟的算法,二者具有较好的鲁棒性。

神经网络,如BP算法,通过对有限个模式的训练和学习来实现对所有模式的识别;事实证明效果很好。遗传算法通过在个体空间中选择有限数目的个体作为种群进行代代操作来实现对个体空间中最优解的搜索。两种方法都选择了较少的操作数目,但由于算法本身的优越性,仍能取得较好的稳定性和收敛性。

四、神经网络与遗传算法在缺点上的相似性

(一)二者优越性的理论分析有待完善。

神经网络与遗传算法各自的种类繁多,神经网络主要有前馈(BP)神经网络、Hopfield网络、自组织特征映射网络、波尔兹曼机等,其中最有影响的是BP网络和Hopfleld网络;遗传算法主要有简单遗传算法、统计遗传算法、共同进化遗传算法及其它改进后的遗传算法;针对要解决问题的性质可以选择合适的网络或算法。这些网络或算法已经被诸多实践证明其优越性。

目前神经网络和遗传算法已经在语音识别、模式识别、图像处理和工业控制等领域取得了显著成效。虽然实践已证明了其无比的优越性,但在理论分析上,两者都略有不足。BP算法和Hopfield网络虽然给出了算法的执行原理及过程,但其优越性的理论仍不严格,即并未对不同情况定量说明,为什么这种算法能够快速收敛或快速求解。对遗传算法来说,早在Holland提出遗传算法之初就提出了著名的模式定理和稳并行性分析来定量说明遗传算法的优越性,并长期以来被人们所接受。但是模式定理只对简单遗传算法有效,因为其证明过程依赖于二进制编码,对非二进制编码收敛性的分析至今也未得出。除此之外,近年来,有很多著名学者也对模式定理的证明过程提出了质疑。所以,找到神经网络和遗传算法优越性的理论基础仍是一项艰巨的科研任务和课题。

(二)在算法的执行过程中参数的确定都需要依赖于人的经验。

建立一个神经网络需要首先确定它的基本结构、学习规则以及工作方式(前馈式还是演化式),网络结构包括网络的拓扑结构即网络中神经元的连接方式和节点转换函数两部分。结构的优劣对网络的处理能力有很大影响,一个好的结构应能圆满解决问题,同时不出现冗余节点和冗余连接,但不幸的是,神经网络结构的设计基本上还依赖于人的经验,尚没有一个系统的方法来设计一个适当的网络结构。目前,人们在设计网络结构时,只能或者预先指定。或者采用递增或递减的探测方法。

对遗传算法来说,需要针对待解决的问题而设计出编码方案、三个算子(选择、杂交、变异)、进化机制以及各个概率参数,如杂交概率、变异概率等。参数的确定也没有理论支持,只是人为地认为杂交概率的值确定在(0.65,0,9)范围内,变异概率的值确定在(0.001.0.01)比较好,目前,在遗传算法的实际执行过程中一般需要预先指定这两个参数,近来有学者提出在遗传算法的执行过程中动态地改变这些参数的方法也取得了较好的效果。

神经网络算法的优点范文第5篇

随着4G时代的到来,电信行业的得到了空前的发展,用户数量快速增长,同时,电信各运营企业之间的竞争也日益激烈。面对激烈的电信市场竞争环境,以及日趋饱和的电信市场,获取新客户的成本比保持在网客户要昂贵得多。加之电信技术、法律法规、携号转网以及竞争对手等动态市场的变化,使客户流失到对手运营企业也更加容易。数据挖掘,作为一种新兴技术手段,可以高效、低成本的实现客户的流失预测,现已在电信、金融等行业得到了广泛应用。

【关键词】

数据挖掘;客户流失;算法

1、引言

流失客户,即是不想或不再使用其服务的企业原有客户。根据流失程度可分为两类:离网流失和业务流失,或称为显性流失和隐性流失。在我国,电信行业竞争日益激烈,市场容量逐渐饱和,在终端产品以及通信资费相对平稳的情况下,用户成为电信运营商激烈竞争的焦点。如何有效地防止用户流失、降低流失率成为各个运营商急需解决的难题。客户流失给运营商带来了巨大损失,而成功挽留一个即将流失的客户比重新发展一个客户节约大量成本。因此,利用数据挖掘技术,预测客户流失、减少客户流失的发生成为当下电信行业研究的重点。

2、客户流失预测常用算法及比较

客户流失预测常用算法。目前,常用的挖掘算法有很多,但客户流失分析较为常用的有三种算法,分别是决策树算法、支持向量机算法、神经网络算法。

(1)决策树算法当前最有影响的决策树算法是Quinlan于1986年提出的ID3和1993年提出的C4.5。ID3只能处理离散型属性,它选择信息增益最大的属性对训练样本进行划分,目的是进行分枝时,使系统的熵最小,从而提高算法的精确度。C4.5是ID3算法的改进算法,不仅可处理离散型属性,还能处理连续性属性。C4.5采用信息增益比作为选择分枝属性的标准,弥补了ID3算法的不足。决策树的优点在于,它可以生成可以理解的规则,计算量相对较小,可以处理连续和种类字段,并且可以清晰地显示哪些字段比较重要。但决策树对连续性的字段比较难预测,这是决策树的一个不足。

(2)支持向量机算法支持向量机(SupportVectorMachine,SVM)由Vapnik领导的AT&TBell实验室研究小组于1963年提出,当时的研究尚不十分完善。直到90年代,统计学习理论的实现和由于神经网络等较新的机器学习方法的研究在如何确定网络结构、过学习与欠学习、局部极小点等问题时遇到一些重要困难,这个阶段SVM的理论技术得到迅速发展与完善,它在解决小样本、非线性以及高维模式识别中表现出许多特有的优势,并能够推广应用到函数拟合等问题中,是一项有潜力的分类与回归技术。SVM也存在自身不足,SVM算法对大规模训练样本难以实施,同时,对于多分类问题存在困难。

(3)神经网络算法人工神经网络(ArtificialNeuralNetworks,ANN),也简称神经网络,它是由大量简单处理单元以某种方式互相连接而成,通过调整内部这些大量处理单元之间相互连接的关系,从而达到处理信息的目的。神经网络中,神经元处理单元可表示为特征、字母、概念或某些有意义的抽象模式等不同的对象。神经网络中处理单元类型可以分为三类:输入层单元、输出层单元和隐藏层单元。输入层单元负责接受外部世界的数据或信号;输出层单元实现网络处理结果的输出;隐藏层单元处于输入层和输出层单元之间,不能由系统外部观察的单元。神经元间的连接权值反映单元间的连接强度,信息的表示和处理体现在网络处理单元的连接关系中,可对连续的或非连续的输入做出状态相应,能实现复杂的逻辑操作和非线性关系信息的动态处理,因而神经网络具有很强的逻辑运算和数值运算能力。神经元网络的优点在于有无指导的情况下都能够进行学习;缺点是神经网络很难解释而且会学习过度,另外神经网络建模通常较费时,需要的准备工作量很大。神经网络的著名算法是基于误差学习的后向传播算法,即BP算法。

3、电信客户流失预测研究展望

以下几方面在未来的研究中值得考虑:(1)对现有指标体系还需要进一步研究与完善,尤其是随着4G业务的发展,指标应该进一步调整。(2)现在国内的流失预测分析,大都以“月”为单位,如果能以“周”或者“日”为单位,可以更加及时的发现流失客户。(3)用于流失预测的算法各有利弊,找出一个在各方面性能都很好的分类算法仍然需要进一步研究。

【参考文献】

[1]肖水清.基于CRM探讨电信业的客户流失问题[J].现代计算机,2006(1)

[2]陈晋苏,郑惠莉.电信行业流失客户挽留价值综合评价研究[D].南京邮电大学,2005

[3]仲继.电信企业客户流失预测模型研究[D].西安科技大学,2014