前言:想要写出一篇令人眼前一亮的文章吗?我们特意为您整理了5篇神经网络的学习方式范文,相信会为您的写作带来帮助,发现更多的写作思路和灵感。
关键词 BP神经网络;免疫遗传算法;模拟退火算法;线损
中图分类号:TM744 文献标识码:A 文章编号:1671-7597(2013)11-0000-00
线损是考核电力网运行部门一个重要经济指标,是电力网供售电过程中损失的电量。线损是技术线损与管理线损之和。对于技术线损则应控制在合理的范围以内,而管理线损要尽力减到最少。线损理论计算得到的电力网技术线损数值是电力网线损分析和指导降损的科学依据。线损计算是节能管理的重要工作。本文主要讨论BP神经网络算法在配网线损计算中的应用。
1 配网线损的计算方法
整个电力网电能损耗计算可以分解为如下元件的电能损耗计算,即35 kV及以上电力网为35 kV及以上交流线路及变压器的电能损耗计算;20 kV配电网为20 kV交流线路及公用配电变压器的电能损耗计算;10 kV配电网为10 kV交流线路及公用配电变压器的电能损耗计算;6 kV配电网为6 kV交流线路及公用配电变压器的电能损耗计算;0.4 kV低压网为0.4 kV及以下电力网的电能损耗计算;其它交流元件为并联电容器,并联电抗器,调相机,电压互感器,站用变等;高压直流输电系统:直流线路,接地极系统,换流站(换流变压器、换流阀、交流滤波器、平波电抗器、直流滤波器、并联电抗器、并联电容器和站用变压器)。
目前已有不少计算线损的方法,日均方根电流法应用较多,但它只是对35 kV及以上电压的输电网络比较适用,而对于35 kV以下的配电网,因为线段数、分支线路、配电变压器数量较多,使得其等值电路的节点数和元件数大大增加,需要花费大量的人、物力计算所需的运行资料,因此在实际应用中日均方根电流方法难以通用。回归分析方法在配网线损计算中也有较为广泛的应用,但该方法难于确定回归方程,对不同配网结构不具通用性,计算结果准确度不高。近年来,神经网络理论的发展与应用为配网理论线损计算提供了新的思路。
2 BP神经网络算法
人工神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应。人工神经网络具有自组织、自学习、良好的容错性和非线性逼近能力,受到学界的关注。实际应用领域中,百分之八十至九十的人工神经网络模型采用了误差反传算法或者为其变化形式的网络模型,在这里简称为BP网络,BP网络目前主要应用在模式识别、分类、函数逼近和数据压缩或数据挖掘等方面。
BP(Back Propagation)神经网络,由信息正向传播及误差反向传播两个过程构成,即误差反向传播算法的学习过程。输入层的每个神经元负责接收来自外界的输入信息,并传递给中间层的每个神经元;中间层是内部信息的处理层,负责信息变换;最后一个隐层传递到
输出层各神经元的信息成一次学习的正向传播处理过程,由输出层向外界输出信息处理结果。根据信息变化能力的需求,中间层可以设计为单隐层或者多隐层结构;当输出层的实际输出与期望输出不符时,进入误差的反向传播阶段。误差通过输出层,按误差梯度下降的方式修正各层权值,向隐层、输入层逐层反传。周而复始的信息正向传播和误差反向传播过程,是各层权值不断调整的过程,也是神经网络学习训练的过程,此过程一直进行到网络输出的误差减少到可以接受的程度,或者预先设定的学习次数为止。
BP神经网络模型包括其输入输出模型、误差计算模型、作用函数模型和自学习模型。
2.1 作用函数模型
作用函数是反映下层输入对上层节点刺激脉冲强度的函数,一般取为(0,1)内连续取值Sigmoid函数,即为:f(x)=1/(1+e)。
2.2 节点输出模型
隐节点输出模型为Oj=f(∑Wij×Xi-qj),输出节点输出模型为Yk=f(∑Tjk×Oj-qk),其中f为非线形作用函数;q为神经单元阈值。
2.3 误差计算模型
误差计算模型是反映神经网络期望输出与计算输出之间误差大小的函数:
Ep=1/2×∑(tpi-Opi) ,其中tpi-i节点的期望输出值;Opi-i节点计算输出值。
2.4 自学习模型
神经网络的学习过程,即连接上层节点之间和下层节点的权重矩阵Wij的设定和误差修正过程。BP网络有师学习方式(即需要设定期望值)和无师学习方式(即只需输入模式)之分。自学习模型为Wij(n+1)=h×Фi×Oj+a×Wij(n),其中h为学习因子;Фi为输出节点i的计算误差;Oj为输出节点j的计算输出;a为动量因子。
神经网络可以用作分类、聚类、预测等。神经网络需要有一定量的历史数据,通过历史数据的训练,网络可以学习到数据中隐含的知识。
3 BP神经网络算法在配网线损计算中的应用
基于免疫遗传算法(IGA)的BP神经网络方法计算的理论线损是在遗传算法(GA)的基础上引入生物免疫系统中的多样性保持机制和抗体浓度调节机制,有效地克服了GA算法的搜索效率低、个体多样性差及早熟现象,提高了算法的收敛性能。为了解决BP神经网络权值随机初始化带来的问题,用多样性模拟退火算法(sAND)进行神经网络权值初始化,该算法设计的BP神经网络比混合遗传算法有更快收敛速度及较强的全局收敛性能,其准确度优于现有其它计算配电网理论线损的方法,预测精度在原有算法基础上有一定的提高,理论线损的计算结果与实际更加一致。改进后的算法核心是运用了神经网络的现有理论和结构,借鉴了免疫学原理和相关特性,定义了基于免疫学的基本运算规则和运算单元,用遗传算法实现了个体群在群体收敛性和个体多样性之间动态平衡的调整。
4 小结
配电网线损是电力工业中一个重要的技术经济指标,准确简便的线损计算对于电力网络优化设计、提高电力系统运行的经济性、安全性及供电质量具有很强的导向作用。BP神经网络算法有更快收敛速度及较强的全局收敛性能,其准确度优于现有其它计算配电网理论线损的方法,使得理论线损理论计算与实际更逼近。
参考文献
[1]李秀卿,汪海,许传伟,等.基于免疫遗传算法优化的神经网络配电网网损计算[J].电力系统保护与控制,2009,37(11).
[2]甘德强,王锡凡,王小路.电力系统概率暂态稳定性的分析[J].中国电力,1994,27(4):32,35.
[3]张健,刘怀东.输电线路概率安全性测度研究[J].电力系统及其自动化学报,2003,12:34,36.
关键词:神经网络 油气层识别 进展
油气勘探具有高投入、高风险的特点,如何利用现有勘探资料,采取切实可行的技术方法,增强测试层位的可靠性和准确性,对于扩大油气储量及提高已发现油气藏的勘探价值具有重要意义。首先精确地判识油气层位,可以大大减少试油成本及减少投资损失。其次对于新的勘探区域,如能准确地判识出油气层,则有助于新的油气藏的发现。因此,对储层进行识别和预测,有着巨大的社会效益和经济效益。
油气层综合解释的任务是要判断储层中所含流体的性质,从而为准确地发现油气层和确定试油层位提供依据。目前油田常用的解释方法主要有定性解释法和交汇图法,其前者不足是受人为因素影响较大,自动化、系统化程度较低;而后者在解释时只能对参数成对考虑,无法同时综合多个有效参数。鉴于上述方法的诸多不足,近年来用人工神经网络对储层进行识别与评价成为研究及应用的较为广泛的方法。
1、概述
神经网络具有很强的自适应学习能力。它模拟人脑的结构,通过对外界事物的感知及认识实现其判别过程,如加利福尼亚技术学院J.J.Hopfield提出的Hopfield网络用于地震模式识别油气层系统。
用从有噪声干扰的模拟地震记录中检测亮点模式,识别能力是十分惊人的。Poultion M.M等人在给定油气层的电磁椭圆图像情况下,用神经网络方法来估算良导体的位置、深度和导电率与面积乘积,效果也是很好的。
模糊识别的优点: ①利用测井多参数模糊识别储层时,各测井参数反映储层类型所包含的信息不同,因此综合储层模糊隶属度中各参数所加权值应根据曲线对模式识别贡献的大小来确定。②模糊识别方法是一种多参数的模式识别方法,具有思想简单、计算速度快、模式识别符合率较高等优点。缺点:建模过程中需要较多的建模样本,对于井资料较少的井不容易识别。目前在油气层识别中的应用比较普遍的神经网络方法有以下几种:
2、结构风险最小神经网络油气识别理论
中国科学院地质与地球物理研究所张向君在深入研究了神经网络系统处理信息的能力之后,针对神经网络油气识别中网络结构设计、提高识别结果准确性等问题,提出了结构风险最小神经元网络方法,在理论上提出了神经网络结构设计方法即网络“修剪"方法,该方法要求首先训练一个大的网络,然后逐渐去掉隐层中多余的节点:Waug和Massimo等的研究结果表示:含有一个隐层的位置、深度和导电率与面积乘积,效果也是很好的。
Hashem和Schmeiser为提高网络训练精度,提出一优化组合方法,即对一训练样本分别独立地用若干网络训练,然后通过对已训练网络的输出加权合并,将各个独立的部分网络组合在一起;Jacobs和Jordan发展了一种分级混合结构网络,它首先将一个复杂问题分解成各种简单问题,再对每一个简单的问题分别由一个网络单独处理,最后再将各个网络组合在一起解决整体复杂问题。结构风险最小神经元网络运用串行训练算法能自适应地扩展网络容量并使网络的结构风险达到最小,提高了储层识别结果的准确性。研究表明,训练样本一定时,神经网络的结构越简单,其风险越小,识别结果愈可靠,并且使神经网络的结构风险达到最小。
3、时间延迟神经网络地震油气识别方法
江汉石油学院刘瑞林等人在研究了目前已发展的几种地震资料油气识别技术后认为通常采用孤立模式分类方法一般先根据目的层的位置选取一个包含目的层的时窗,接着对这个时窗内的地震信号进行特征提取,然后对这些特征信息用相应的分类方法进行分类。特征信息与地层含油气情况的关系是静态的映射关系,方法本身没有考虑特征信息随时间的变化与地层油气聚集的联系,容易产生误识问题。针对以上现象提出了时间延迟神经网络地震油气识别方法即采用滑动时窗的办法进行多时窗特征提取,以表达特征信息随时间的变化,亦即地层层序等因素的变化。时间延迟神经网络模型通过井旁道的标定,对于每一道就有一个多维特征串,这些特征串与地层含油气与否的关系通过一个时间延迟神经网络(TDNN)模型联系起来,用于表达相应时窗特征信息与地层含油气性的关系。时间延迟网络进行油气识别时增加了层序的约束,对于地震油气识别来说是一种合理的方法。
4、前馈式(Back Propagation)神经网络
简称BP神经网络,它是目前应用最广泛、研究最深入的一种多层前馈神经网络。该种网络采用有导师监督的学习方式和广义的Delta学习规则,即误差反传播算法,对非线性可微分函数进行网络权值训练。它经常使用的激活函数是S型对数或正切函数以及线性函数。BP算法是一种监督式的学习算法,它是通过连续不断地在相对于误差函数斜率下降的方向计算网络权值和偏差的变化而逐渐逼近目标的。它由信息的正向传递和误差的反向传播两部分组成。在第一阶段,即信息的正向传递阶段,给出输入信息,通过神经网络处理并计算每个神经元的实际输出值;在第二阶段,即误差反向传播阶段,网络在输出层比较网络输出与目标值,若未能得到期望的输出值,则逐层递归计算目标值与期望输出之差(即误差),以此为根据调节权值。上述两个过程反复进行,直到网络输出与目标匹配或误差达到人们所希望的要求为止。
5、自组织特征映射(seIf-organiZingfeaturemap)SOM神经网络
自组织特征映射网络是一种竞争式学习网络。这种网络采用无导师监督的学习方式,以基本竞争网络算法为基础,通过网络中邻近神经元阳J的侧向交互作用和相互竞争。在一维或二维输出空间中形成输入信号的特征分布拓扑图,自适应的形成对输入模式的不同响应,以完成对输入信号的特征提取功能。SOM模型是由输入层和输出层(竞争层)组成的两层网络。网络中的权分为两类:一类是层与层之间的权;另一类是层内互相抑制的权。一般来讲,它们是固定的,如果满足一定的分布关系,距离近的抑制强,距离远的抑制弱,它是一种对称权。SOM网络将学习过程分成两部分来进行:一是选择最佳匹配神经元,二是权向量的自适应更新过程。SOM模拟了大脑信息处理的自组织、自学习和聚类功能,并以其高强度的特征判别优点在许多领域得到了广泛应用。
6、改进的组合进化算法的神经网络
成都理工大学张学庆等针对使用神经网络进行计算的过程中,神经网络的收敛速度慢、容错能力差、算法不完备等缺点。在充分分析了基于遗传算法的神经网络具有强的全局搜索能力,基于进化规划的神经网络具有强的局部寻优能力的特点后,将组合进化算法应用于油水层测井解释中,降低了误判率。
组合进化算法的过程如下:设立一个竞争池,将所有父代个体放入池中,然后进行杂交和变异操作,并用神经网络进行训练。将产生的个体也放入竞争池,对竞争池中的个体按适应值进行排序,进行确定性选择,保留最好的前n个个体。这样就完成了一次种群进化,重复这一过程,直到满足条件为止。改进的组合进化算法的神经网络具有遗传算法的较强的全局搜索能力和进化规划的较强的局部寻优能力,应用于油气水层测井解释中,效果好。
关键词:人工神经元网络;BP神经网络;matlab;识别分类
中图分类号:TP391.41文献标识码:A文章编号:1007-9599 (2010) 16-0000-02
Artificial Neural Network Application on Face Classification
Liang Xiaoli
(Heilongjiang Radio&TV University,Harbin150080,China)
Abstract:In the face recognition technology is developing continuously,people not limited to recognize the human face,but the main emphasis on the accuracy and efficiency of face recognition.
Face recognition is divided into three steps,face detection,feature extraction,recognition category,identification and classification of the methods in which the decision of whether to correctly identify the human face.BP neural network with forward propagation and back propagation characteristics,so as to ensure the accuracy of classif-
ication,Therefore,the main author of this article how to MATLAB,the BP neural network used in face recognition classification.
Keywords:Artificial neural network;BP neural network;Matlab;
Recognition category
人工神经元网络,又称为神经元网络,它是对人脑的简化、抽象和模拟,反映了人脑的基本特性神经元网络是由大量处理单元广泛互连而成的网络。神经网络研究的是模拟人脑信息处理的功能,从人脑的生理结构出发来研究人的智能行为。是依托于数学、神经科学、物理学、计算机科学及工程等学科的一种综合性技术。
一、人工神经网络的分类
我们可以对人工神经网络进行如下分类:
(一)单层的前向神经网络
这里所说的单层前向网络是指拥有单层的神经元是,作为源节点个数的“输入层”被看作是一层神经元,“输入层”是不具有计算功能。
(二)多层的前向神经网络
多层前向神经网络与单层前向神经网络的差别在于:多层的前向神经网络和单层前向神经网络的隐含层个数不同,在多层的前向神经网络中完成计算功能的节点被称为隐含单元(隐含神经元)。由于隐层的数量不同,使网络能进行更高序的统计,尤其当输入层规模庞大时,隐层神经元提取高序统计数据的能力便显得非常重要。
(三)反馈网络
反馈网络指在网络中最少含有一个反馈回路的神经网络。反馈网络中包含一个单层神经元,在这一层中的所有的神经元将自身的输出信号反馈给其他所有神经元作为输入。
(四)随机神经网络
随机神经网络是在神经网络中引入了随机概念,每个神经元都是按照概率的原理在工作,这样每个神经元兴奋或抑制具有随机性,其概率取决于神经元的输入值。
(五)竞争神经网络
竞争神经网络最显著的特点是它的输出神经元之间相互竞争以确定胜出者,胜出者指出哪一种原型模式最能代表输入模式。
二、神经网络的学习
神经网络的学习又被称为训练,所指的是通过神经网络所在外界环境的刺激下调整神经网络的参数,使得神经网络以一种调整好的方式对外部环境做出反应的过程。从环境中学习和在学习中提高自身性能是神经网络最有意义的特征了。
学习方式可分为:有师学习和无师学习。有师学习又称为有监督学习,在学习时需要给出指导信号(又可称为期望输出或者响应)。神经网络对外部环境是未知的,但可以将指导信号看作对外部环境的了解,由输入―输出样本集合来表示。指导信号或期望输出代表了神经网络执行情况的最佳结果,即对于网络输入调整网络参数,使得网络输出逼近期望的输出值。无师学习包括强化学习与无监督学习(可以被称为自组织学习)。在强化学习中,对输出的学习是通过与外界环境的连续作用最小化完成的。
三、BP神经网络
BP(Back Propagation)神经网络,就是指包含信息正向传播和误差反向传播算法的学习过程。输入层的每一个神经元负责接收来自外界的输入信息,并传递给中间层中的每一个神经元;中间层的各个神经元是内部信息处理层,负责信息变换,可以设计为单隐层或者多隐层结构;最后隐含层传递到输出层的信息,经进一步处理后,完成一次学习的正向传播处理过程,由输出层向外界输出信息处理结果。当实际输出与期望输出不相符时,进入误差的反向传播阶段。误差通过输出层作用于输入层,按误差梯度下降的方式分别修正各层权值,逐渐向隐含层和输入层反传。多次的经过信息正向传播和误差反向传播过程,是各层权值不断调整的过程,也就是神经网络学习训练的过程,此过程一直进行到网络的输出误差减少到可以被接受的程度,或者达到预先设定的学习次数才会停止。
四、实验过程及结果
本文中假设已经用奇异值分解得到人脸特征点的数据,每个人脸划分为五部分,每部分又得到5个特征值,所以也就是25个的特征值。本文采集了50个人人脸,每人采集10张不同姿态下的照片,也就是500张照片,对这些照片进行人脸检测并进行奇异值分解,得到每张照片对应的25个特征值,从每人10张照片中随机抽出5张用于训练出不同的姿态下的人脸,另外的5张用作测试样本。
(一)实验过程
由于数据过长,本文只以2个人,每人2张照片作为的训练样本数据为例来说明。
第一步:训练样本(每人25个特征值),在p是一个25行,4列的矩阵,每一列代表一个人的25个特征值,属于一个样本;列数4表示样本总数;
p=[ 7.4264 9.0728 7.9825 9.5632;
7.5719 7.8115 6.5564 7.8561;
12.8074 12.7073 12.4536 11.5423;
9.0284 10.3744 8.7569 9.9965;
7.0083 9.0284 7.1254 8.8876;
1.2597 2.1578 1.3556 3.0112;
0.6896 0.7835 0.7859 0.9658;
0.7814 0.8818 0.7568 0.8213;
1.0248 1.6783 1.1542 1.5234;
1.0112 1.0248 0.9568 0.9652;
1.0427 1.0813 1.0425 0.9568;
0.5970 0.5886 0.5968 0.5889;
0.4928 0.5969 0.3569 0.6012;
0.6438 0.6417 0.6589 0.5612;
0.3563 0.6438 0.2534 0.6689;
0.4474 0.4235 0.4568 0.4236;
0.2483 0.2282 0.2253 0.2259;
0.3633 0.4616 0.3102 0.4556;
0.3383 0.4167 0.3561 0.3456;
0.3130 0.3383 0.3302 0.3359;
0.3378 0.3313 0.3219 0.3569;
0.1916 0.1767 0.1564 0.1952;
0.2356 0.3422 0.2355 0.3012;
0.2088 0.3268 0.1958 0.3568;
0.1858 0.2088 0.0956 0.1968;];
第二步:目标输出矩阵
因为就两个人,所以采用一位二进制编码就可以,在这里定义第一类样本的编码为0;第二类样本的输出编码为1。
t=[0 1 0 1];
第三步:使用MATLAB建立网络结构
net1=newff(minmax(p),[25,9,1],{'tansig','tansig','hardlim'},'traingdm');
说明:[25,10,1]表示该网络的输入结点为25个值,输出结果为1为二进制编码的值,中间层由经验公式 (rnd为0-1之间的随机数),所以本文选取5-15之间数分别作为隐含层的神经元个数,得出的结论是9的收敛速度最快。
第四步:对网络进行训练
[net1,tr]=train(net1,p,t);
第五步:保存网络
save aa net1
则文件会以aa.mat的格式保存,保存了训练好的网络以及权值。
第六步:输入测试样本
先加载上一步中保存好的网络,本实验中只输入一个测试样本,下面的数据代表测试样本的特征值,共25个。
load aa.mat
p1=[7.8115;0.7835;0.5886;0.2282;0.1767;1.0197;0.7896;0.6814;1.1238;1.1114;0.9427;0.5970;0.4569;0.5438;0.4563;0.1983;0.4632;0.3383;0.3130;0.4377;0.1817;0.2256;0.2088;0.2854;0.2812];
第六步:网络仿真
a=hardlim(sim(net1,p1)-0.5)
(二)实验结果
根据上述实验过程,得出的结果是:
下图是执行了10次中的一次算法模拟情况。
Elapsed time is 0.469seconds
网络仿真的输出结果是:a=0
本文中测试的数据来源于训练样本中输出为0的样本,识别结果正确。换了10个测试样本,其中识别正确的是6个,也就是正确率大约在60%。
然后,采用相同的办法,在实验中把训练样本由每人两个不同姿态下的样本增加到了3个,也就是输入向量的p由4列增加到6列,其他的均不变,网络的训练时间为0.471 seconds。还是使用上面的10个测试样本,其中识别正确的达到了8个,正确率提高到了80%左右。
在样本量扩大到250时,这些样本是来自于,50个人,每人拍摄10张不同姿态下的照片,也就是500张,然后从其中随机的取出每个人对应的5张照片作为训练样本,然后再把从剩余的250张作为测试样本,进行测试。输入结点数为250,每个结点对应的特征向量为25;输出值用二进制的编码表示,由于后面要实现的人脸识别系统中要应用在一个只有50人的环境下,所以采用二进制编码6位就够了,但是为了系统的可扩展性,所以采用7位二进制编码来设计输出结点的值,bp网络就是25维输出7维输出。此时测试的250个数据中只有一组数据是错误的,原因是照片中的人嘴和鼻子被口罩遮住了。
样本量增加后网络训练到一个样本测试仿真所有的时间是1.936seconds。
五、小结
本文介绍了基于BP神经网络的人脸识别分类方法,先用matlab设计了一个模拟程序,然后不断的增加训练样本中同一人样本的样本数,训练后用10个人分别测试两个网络的正确率,当同一人的样本数增加到3时,正确率由60%提高到了80%。可以证明网络训练样本的增加有利于提高识别的正确率。把在上一章中采集到的50个人所对应的500张照片作为标准样本库,从中随机取出250张作为训练样本,然后设定输出值,输出的值应该有50类,采用二进制的编码构成,然后再实用剩余的250张照片作为测试样本,进行测试。
关键词:神经网格 油藏描述 级联算法
引言
目前,由于易于寻找油气藏的减少,油气资源勘探已趋向岩性、地层等隐蔽油气藏方向,油藏描述方法技术就成为油气资源勘探开发工程中必不可少的核心技术之一,而油藏参数的分析和预测是油藏描述的最重要方面。比较准确的、精细的油藏参数预测无疑能够回答勘探实践中的一些重要问题。
级联算法就是一种典型的构造性神经网络。运用级联算法,对油藏各参数进行分析、抽象,可以最大限度地把地下油藏的三维特征描述清楚,而且更重要的是利用较少的资料能较准确地预测出地下油藏的渗透率、饱和度和孔隙度,能够比较准确地描述出各种开发属性三维空间的具体细节。因此本文将探索的利用构造性神经网络预测油藏参数是很有意义的。
关于神经网络自学技术应用于“油藏参数的预测”的意义
1.油藏描述技术
油藏描述是以石油地质学、沉积学、地震地层学和测井地质学为基础,以数学地质学和计算机自动绘图技术为手段,最大限度地利用地震、钻井、测井、试油和分析化验等资料,对油藏进行综合研究和描述的新技术。它表现出了以下重要的特点:
(1)阶段性:油藏描述贯穿于勘探开发的全过程,从第一口发现井到油田最后废弃为止,多次分阶段滚动进行。
(2)先进性:现代油藏描述尽量采用各种先进实用的科学技术和方法,如现代数学方法和理论的大量应用,包括地质统计学及随机模拟、模式识别、模糊数学、专家系统、神经网络、分形几何等。
(3)早入性:油藏描述应从油田第一口发现井开始就开展工作。油田发现后,开发工作人员介入得越早,油藏描述工作开始得越早越好。
为了把油藏描述的结果准确、详细、直观地表达出来,应在石油勘探开发中进行科学的管理和决策。油藏参数是一些很重要的指标,因此油藏参数的预测是否准确,绘出的图样是否合理,直接影响到油藏描述的效果。“神经网络自学技术”就是以重点对油藏参数进行分析、预测,增强了油藏描述技术的可靠性。
2.推出神经网络自学技术的工作机制
传统的神经网络学习算法,其具体步骤为:
(1)初始化。确定神经元的转换函数(通常取为Sigmoid函数),给定精度控制参数ε(ε>0),学习率L及动量系数。
(2)计算网络输出y 。
(3)计算误差函数E,如果E<ε转(5),否则转(4)。
(4)调整输出层和隐层的权值,转(2)。
(5)存储最优权值W ,算法结束。
这里需要注意的是权值调整是在误差向后传播过程中逐层进行的,当网络的所有权都被更新一次后,我们说网络经过了一个学习周期。
网络经过若干次训练(迭代)后,得到了网络的最优权值W 。
本文所采用的构造性学习算法――CC算法是一种监督学习方式,它融合了两个观点:第一个是重叠结构,该结构中我们每次只添加一个隐层单元,而且添加后都不改变;第二个是学习算法,它创造和装载了新的隐层单元。对于每一个新隐层单元,该方法尝试去最大化新单元输出与网络残留误差信号之间的联系。其生长过程如下图所示:
算法重复直到网络的全体误差小于某个给定值。
我们的目标是训练输出权重使平方和最小,即
3.神经网络自学技术的初步应用
Rajesh Parekh、Jihoon Yang和Vasant Honavar三位研究了神经网络自学技术在模式识别方面的应用,研究得到了美国科学基金、John Deere基金、美国安全局和IBM公司的支持。
该研究使用了几十倍的交叉确认方法。每一个数组都被分成10等份,而且对于每一个数组,每个方法的独立运行都是受控的。对于第i个运动,第i个包是按照测试包来设计的,而剩余的9个包中的样品被用来训练。在训练的最后,网络的普遍性是在测试包上测试。单独的TLU的是用热感知器方法来训练的。每个神经元的权值按一定间隔随机地被初始化为一个新,以适应在整个6个点中输入到神经元的平均网格。
图2总结了实验的结果,该实验是设计来测试构造性学习算法的收敛性。它列举出了实验用的方法和网络尺寸(隐藏和输出神经元的数目)的标准偏差、训练的精确度,以及建立在3个周期和电离层数组上的M Pyramid-real和M Tiling-real方法的测试精确度。为了区别,我们包含了运用热感知器方法训练单层网络的结果。感知器方法在两个数组的训练精确度都少100%(这巩固了数组的非线性可分离性)。这些结果表明不仅仅构造性算法训练集上收敛于0分类误差,而且它们在未知数据上也可以清楚地推断出来。
这样在油藏描述中,我们在缺少单一资料的情况下也可以很准确地得到油藏属性值。比如在计算空隙度时缺少了一个单一的声波时差,我们可以使用级联算法,计算出空隙度。并且使用神经网络自学算法,可以更准确地得到需要使用迭代方法得到的参数值。这样得到的参数,使用计算机图形库,就可以很快地形成三维的地质图形,使得油藏描述更为精确。
对于神经网络自学技术未来的研究点如下:
1.预测构造性学习算法的表现,
2.混合构造性学习算法,
3.合并构造性学习和特征选择,
4.运用助推和错误纠正输出码来改善普遍化,
5.从训练的构造性神经网络的知识萃取。
结束语
为了把油藏描述的结果准确、详细、直观地表达出来,应在石油勘探开发中进行科学的管理和决策。油藏参数是一些很重要的指标,因此油藏参数的预测是否准确,绘出的图样是否合理,直接影响到油藏描述的效果。本文采用“神经网络自学技术”就是以重点对油藏参数进行分析、预测,增强了油藏描述技术的可靠性。运用级联算法,对油藏各参数进行分析、抽象,可以最大限度地把地下油藏的三维特征描述清楚,而且更重要的是利用较少的资料能较准确地预测出地下油藏的渗透率、饱和度和孔隙度,能够比较准确地描述出各种开发属性三维空间的具体细节,可以更快、更准确地得到结果,应用更加方便。
参考文献:
[1]邬长武,于浩业,沈楠,尹东迎.神经网络在彩南油田油藏描述中的应用.新疆石油地质,2003年03期.
[2]谢丛姣,关振良,马正.低渗油藏油层产出能力的神经网络预测方法.成都理工学院学报,1998年S1期.
关键词:自组织竞争网络;测井资料岩性识别;MATLAB
中图分类号:TE319 文献标识码:A文章编号:1007-9599 (2011)05-0000-02
Application of Self-organization Competition Network in Log Data Lithological Identification
Zong Chunmei
(Xinzhou Teachers University,Xinzhou034000,China)
Abstract:Using self-organizing and self-learning ability of self-organizing neural network,analyze the impact factor to establish self-organizing competitive network model based on MATLAB.By comparing the two structures of basic competitive network and self-organizing competitive network to achieve lithology classification.Experimental results show that the use of self-organizing network model of competition test well lithology identification information is feasible,the correct rate,for the lithology of the research to identify new methods.
Keywords:Self-organizing competitive network;Log data lithology identification;MATLAB
一、引言
目前,岩性识别主要有以下几种方法:(1)概率统计方法;(2)聚类分析方法;(3)人工神经网络方法。人工神经网络方法以其自身特有的样本学习能力获得识别模式,以与岩性相关的测井资料作为神经网络的输入参数,已知岩性种类作为输出总数。前两种数理统计方法,两者的差别只是参数选择的要求不同。人工神经网络具有很强的自组织性、自适应性、容错性和推理思维能力,人们运用神经网络在测井资料岩性识别领域做了大量的研究,取得良好效果。
二、自组织竞争神经网络原理
自组织竞争网络是以无教师教学的方式进行网络训练,具有自组织功能,网络通过自身训练,自动对输入模式进行分类,让网络竞争层中的各种神经元通过竞争来获取对输入的响应机会,最后仅剩一个神经元成为竞争的获胜者,并对那些与获胜神经元有关的各连接全部朝着更有利于它竞争的方向调整,这一获胜神经元的输出则代表对输入模式的分类,正是自组织竞争神经网络具有自组织能力、自适应能力和较高的容错能力的特点,为测井资料岩性识别提供了新的方法。在竞争层中,神经元之间相互竞争,最终只有一个或者几个神经元获胜,以适应当前的输入样本。竞争胜利的神经元就代表着当前输入样本的分类模式。
三、样本数据的获取
(一)样本的选取
样本包括样本特征选取及样本数目的确定。本文样本源于北方某地区2004年的测井资料,该地区属于碳酸盐地层,因此需要判断的岩性有三种,即泥岩、砂岩和石灰岩。通过对已知井段测井数据进行学习,来预测同一地区其他井段的岩性。
(二)样本数据的预处理
测井资料的样本数据中包含了影响岩性的5个重要因子,即补偿中子空隙度CNL、补偿密度曲线DEN、声波时差DTC、自然伽玛GR和微电阻率RT。归一化后的数据如表3.1所示。
表3.1 归一化后的岩性影响因子
序号 CNL DEN DEC GR GT 岩性
1 0.4036 0.4365 0.4860 0.5161 0.3419 泥岩
2 0.4154 0.4711 0.4639 0.4981 0.3806
3 0.5352 0.6408 0.6145 0.6299 0.7154 砂岩
4 0.5524 0.6528 0.6234 0.6715 0.7025
5 0.7709 0.7812 0.8204 0.8425 0.8622 石灰岩
6 0.7589 0.7965 0.8125 0.8506 0.8709
四、测井岩性识别模型的建立
(一)测井岩性识别算法
应用自组织竞争网络进行测井资料岩性识别,首先获取样本资料,即测井数据。在应用自组织竞争人工神经网络对数据进行处理前,利用归一化公式对所有测井数据进行归一化。利用自组织竞争网络的神经网络工具箱函数创建网络。网络创建好后需要对网络进行初始化,接着对网络进行训练,并设置训练次数,由于竞争型神经网络采用的是无教师学习方式,没有期望输出,所以训练过程中不需要设置判断网络训练是否结束的误差项,只要设置网络的训练次数就可以了,网络训练完毕后,利用仿真函数检验网络对岩性模式的分类。利用函数vec2ind将数据串行化输出,为了检验网络的分类性能可以采用同一地区的测试数据对网络进行测试,进行岩性识别。如果岩性识别没有成功,重新对网络进行初始化,重新对网络进行训练、测试。
(二)自组织竞争神经网络结构设计
自组织竞争网络的神经网络工具箱提供了大量的函数工具。自组织竞争网络由输入层和竞争层组成。用newc函数创建一个竞争层,构建一个基本竞争型网络。权值函数为negdist,输入函数为netsum,初始化函数为midpoint或者initcon,训练函数或者自适应函数为trains和trainr,学习函数为learnk或者learncon函数。函数返回值是一个新的竞争层。由于需要识别的类别数目是3,神经元数目也设置为3,为了加快学习速度,将学习速率设置为0.1。用newsom函数创建一个自组织特征映射网络。自组织特征映射网络的输入层中的每一个神经元,通过权与输出层中的每一个神经元相连。构成一个二维平面阵列或一个一维阵列。输入层和竞争层的神经元之间实现全互连接。利用基本竞争型网络进行分类,需要首先设定输入向量的类别总数,再由此确定神经元的个数。但利用自组织特征映射网络进行分类却不需要这样,这种网络会自动将差别很小的点归为一类,差别不大的点激发的神经元位置也是邻近的。两种网络模型各自创建好网络后,对网络进行初始化,论文用到函数initcon。接着就可以对网络进行训练,当达到最大训练次数时,训练停止。此时用仿真函数sim检验网络对岩性分类模式的分类。为了检验网络的分类性能采用训练样本以外的数据对网络进行测试。利用自组织竞争神经网络进行岩性识别,不必对输入的测井数据进行统计,只要将网络自动分类号与相应的岩性对应,即可实现自动岩性分类识别。
五、在MATLAB环境下实现测井资料岩性识别
(一)用函数newc创建一个自组织竞争网络来对岩性分类:
1.建立网络
net=newc(minmax(P),3,0.1);
2.网络训练
net=init(net); %初始化函数为initcon
net.tranParam.epochs=200;%训练步数为200
net=train(net,P);
训练结果显示当达到最大训练次数时训练停止。
3.仿真
为了检验训练好的网络的分类性能,利用仿真函数检验网络对上述岩性模式的分类。
Y=sim(net,P)%对训练好的网络仿真
Yc=vec2ind(Y)
运行结果表明网络成功地将岩性模式分成三类。
4.测试:用样本以外的数据测试网络的分类性能。结果显示测试数据属于石灰岩,网络识别成功,网络的性能是不错的。
5.绘曲线图
wts=net.IW{1,1} %查看权重
wts=wts'
运行结果如图5.1所示。
图5.1 训练后网络权重散点图
由图5.1分析可知,竞争型网络会根据输入向量的分布来调整它的权重向量。离输入向量越近(越相似)的权重向量,通过调整靠的越近。训练结果就是,有几类输入向量也就有几类与输入向量相似的权重向量。
(二)用newsom函数创建一个自组织特征映射进行岩性分类:
1.建立网络
net=newsom(minmax(P),[6 5]); %网络竞争层的神经元的组织结构6 5 plotsom(net.layers{1}.positions);%绘制神经元初始位置
title('神经元位置的初始分布')
figure;
运行结果表明神经元位置是均匀分布的,网络还没有对输入向量进行分类的能力。
2.网络训练与网络仿真
net.trainParam.epochs=10;
net=train(net,P);
训练结果:
TRAINR, Epoch 0/10
TRAINR, Epoch 10/10
TRAINR, Maximum epoch reached.
y=sim(net,P) %对训练好的网络仿真
yc=vec2ind(y)%转换为串行数据
运行结果表明训练次数为10时,网络成功的对岩性进行了分类。由此可知训练步数为100时,网络分成了5类,这种分类结果就比较细化了,因为根据深度的不同,砂岩还可以分为粗粒砂岩和细粒砂岩。
3.测试:结果表明该组数据为属于石灰岩。
4.绘曲线图:
图5.2 训练10次后输入向量分布
图5.3 训练10次后神经元分布
由图5.3可知,经过10次训练后,神经元的位置就发生了明显的改变,神经元位置的分布情况表示它们已经对输入向量进行分类了,此时再增加训练次数已经没有什么实际意义了。
实验结果表明,两种网络结构都成功地对岩性进行了正确分类。自组织特征映射网络在训练次数较少的时候就可成功地对岩性进行分类,在提高训练次数的时候分类结果比较精细。
六、结束语
论文研究结果表明,采用自组织竞争网络与自组织特征映射网络进行测井资料岩性识别是可行的,识别率比较高。由于测井资料所携带的重要的地质信息可以确定地层含油储量,而且还是制订开采规划的重要依据,因此利用自组织竞争网络进行测井资料岩性识别具有很大的意义。此外利用自组织竞争网络还可以对我国油田进行油气层识别,提高油田的产量。不足之处在于岩性复杂地区所需要的信息量较大,需要考虑样本数量的需求、模式和测井数据的完备性。
参考文献:
[1]陈祥光,裴旭东.人工神经网络技术及应用[M].北京:中国电力出版社,2003
[2]张立明.人工神经网络的模型及其应用[M].上海:复旦大学出版社,2004
[3]飞思科技产品研发中心.神经网络理论与MATLABR2007实现[M].北京:电子工业出版社,2007
[4]高隽.人工神经网络原理及仿真实例[M].北京:机械工业出版社,2005
[5]许东,吴铮.基于MATLAB 6.x的系统分析与设计[M].西安:西安电子科技大学出版社,2003
[6]王洪元.人工神经网络技术及其应用[M].北京:中国石化出版社,2002
[7]邱颖,孟庆武,李悌.神经网络用于岩性及岩相预测的可行性分析[J].地球物理学进展,2001,16(3):76-84