首页 > 文章中心 > 对神经网络的理解

对神经网络的理解

前言:想要写出一篇令人眼前一亮的文章吗?我们特意为您整理了5篇对神经网络的理解范文,相信会为您的写作带来帮助,发现更多的写作思路和灵感。

对神经网络的理解

对神经网络的理解范文第1篇

1.神经网络的架构正变得越来越复杂。感知和翻译等大多数神经网络的架构正变得越来越复杂,远非此前简单的前馈神经网络或卷积神经网络(CNN)所能比。特别需要注意的是,神经网络正与不同的技术(如LSTMs、自定义目标函数等)相混合。

神经网络是多数深度学习项目的根基。深度学习基于人脑结构,一层层互相连接的人工模拟神经元模仿大脑的行为,处理视觉和语言等复杂问题。这些人工神经网络可以收集信息,也可以对其做出反应。它们能对事物的外形和声音做出解释,还可以自行学习与工作。

2.长短期记忆网络(LSTMs)。当你阅读本文时,你是在理解前面词语的基础上来理解每个词语的。你的思想具有连续性,你不会丢弃已知信息而从头开始思考。传统神经网络的一大缺陷便无法做到这一点,而递归神经网络能够解决这一问题。

RNN(循环神经网络)拥有循环结构,可以持续保存信息。过去几年里,RNN在语音识别和翻译等许多问题上取得了难以置信的成功,而成功的关键在于一种特殊的RNN――长短期记忆网络。

3.“注意力模型”。“注意力”是指神经网络在执行任务时知道把焦点放在何处。我们可以让神经网络在每一步都从更大的信息集中挑选信息作为输入。例如,当神经网络为一张图片生成标题时,它可以挑选图像的关键部分作为输入。

4.神经图灵机依然有趣,但还无法胜任实际工作。当你翻译一句话时,并不会逐词进行,而会从句子的整体结构出发。机器难以做到这一点,这一挑战就被称为“强耦合输出整体估计”。

神经图灵机就是研究者们在硅片中重现人类大脑短期记忆的尝试。它的背后是一种特殊类型的神经网络,它们可以适应与外部存储器共同工作,这使得神经网络可以存储记忆,还能在此后检索记忆并执行一些有逻辑性的任务。

5.深度学习让计算机视觉和自然语言处理不再是孤岛。卷积神经网络最早出现在计算机视觉中,但现在许多自然语言处理(NLP)系统也会使用。LSTMs与递归神经网络深度学习最早出现在NLP中,但现在也被纳入计算机视觉神经网络。

此外,计算机视觉与NLP的交汇仍然拥有无限前景。

6.符号微分式越来越重要。随着神经网络架构及其目标函数变得日益复杂,手动推导出“反向传播”的梯度也变得更加困难而且容易出错。谷歌的TensorFlow等最新的工具包已经可以超负荷试验符号微分式,能够自动计算出正确的微分,以确保训练时误差梯度可被反向传播。

7.神经网络模型压缩的惊人成果。多个团队以不同方法大幅压缩了训练一个良好模型所需的素材体量,这些方法包括二值化、固定浮点数、迭代修剪和精细调优步骤等。

这些技术潜在的应用前景广阔,可能将会适应在移动设备上进行复杂模型的训练。例如,不需要延迟就可以得到语音识别结果。此外,如果运算所需要的空间和时间极大降低,我们就可以极高帧率(如30 FPS)查询一个模型,这样,在移动设备上也可以运用复杂神经网络模型,近乎实时地完成计算机视觉任务。

8.深度学习和强化学习继续交汇。在“端对端”机器人等领域出现了令人激动的进展,现在机器人已经可以一起运用深度和强化学习,从而将原始感官数据直接转化为实际动作驱动。我们正在超越“分类”等简单工作,尝试将“计划”与“行动”纳入方程。

对神经网络的理解范文第2篇

关键词:深度学习;机器学习;卷积神经网络

1概述

深度学习(Deep Learning)是人工智能、图像建模、模式识别、神经网络、最优化理论和信号处理等领域的交叉学科,主要构建和模拟人脑进行分析学习,它属于机器学习的新兴领域。

2大数据与深度学习

目前,光学检测、互联网、用户数据、互联网、金融公司等许多领域都出现了海量数据,采用BP算法对于训练神经网络出现了梯度越来越稀疏、收敛到局部最小值只能用有标签的数据来训练等缺点。Hinton于2006年提出了深度学习的概念,Lecun等人提出了卷积神经网络,卷积神经网络利用空间关系减少参数数目以提高训练性能。

CPU和GPU计算能力大幅提升,为深度学习提供了硬件平台和技术手段,在海量大数据处理技术上解决了早期神经网络训练不足出现的过拟合、泛化能力差等问题。

大数据和深度学习必将互相支撑,推动科技发展。

3深度学习模型

深度学习模型实际上是一个包含多个隐藏层的神经网络,目前主要有卷积神经网络,深深度置信神经网络,循环神经网络。

1)卷积神经网络

在机器学习领域,卷积神经网络属于前馈神经网络的一种,神经元不再是全连接的模式,而是应用了局部感受区域的策略。然而传统的神经网络使用神经元间全连接的网络结构来处理图像任务,因此,出现了很多缺陷,导致模型⑹急剧增加,及其容易过拟合。

在卷积神经网络中,网络中的神经元只与前一层的部分神经元连接,利用图像数据的空间结构,邻近像素间具有更强的相关性,单个神经元仅对局部信息进行响应,相邻神经元感受区域存在重叠,因此,综合所有神经元可以得到全局信息的感知。

另外,一个卷积层中的所有神经元均由同一个卷积核对不同区域数据响应而得到,即共享同一个卷积核,使得卷积层训练参数的数量急剧减少,提高了网络的泛化能力。

一般在卷积层后面会进行降采样操作,对卷积层提取的特征进行聚合统计。降采样区域一般不存在重叠现象。降采样简化了卷积层的输出信息,进一步减少了训练参数的数量,增强了网络的泛化能力。

卷积神经网络实现了局部特征的自动提取,使得特征提取与模式分类同步进行,适用于处理高分辨率的图像数据。目前,卷积神经网络在图像分类、自然语言处理等领域得到广泛应用。

2)深度置信网络

深度置信网络是一种生成模型,网络中有若干隐藏层,同一隐藏层内的神经元没有连接,隐藏层间的神经元全连接。神经网络经过“反向运行”得到输入数据。

深度置信网络可以用做生成模型,通过前期的逐层无监督学习,神经网络可以较好的对输入数据进行描述,然后把训练好的神经网络看作深度神经网络,最后得到分类任务的深度神经网络。

深度置信网络可以用于图像识别、图像生成等领域,深度置信网络可以进行无监督或半监督的学习,利用无标记数据进行预训练,提高神经网络性能。但近几年由于卷积神经网络的飞速发展,深度置信网络已经很少被提及。

3)循环神经网络

循环神经网络是一种专门用于处理时序数据的神经网络,它与典型的前馈型神经网络最大区别在于网络中存在环形结构,隐藏层内部的神经元是互相连接的,可以存储网络的内部状态,其中包含序列输入的历史信息,实现了对时序动态行为的描述。这里的时序并非仅仅指代时间概念上的顺序,也可以理解为序列化数据间的相对位置。如语音中的发音顺序,某个英语单词的拼写顺序等。序列化输入的任务都可以用循环神经网络来处理。如语音、视频、文本等。对于序列化数据,每次处理时输入为序列中的一个元素,比如单个字符、单词、音节,期望输出为该输入在序列数据中的后续元素。循环神经网络可以处理任意长度的序列化数据。

循环神经网络可以用于机器翻译、连写字识别、语音识别等。循环神经网络和卷积网络结合,将卷积神经网络用于检测并识别图像中的物体,循环神经网络用于识别出物体的名称为输入,生成合理的语句,从而实现对图像内容的描述。

4深度学习应用

1)语音识别

语音识别技术主要包括特征提取技术、模式匹配准则及模型训练技术三个方面。其应用领域主要有语音输入系统、语音控制系统和智能对话查询系统,语音识别极大地推动了人工智能的快速发展。1952年Davis等人研究了世界上第一个能识别10个英文数字发音的实验系统。大规模的语音识别研究是在20世纪70年代以后,在小词汇量、孤立词的识别方面取得了实质性的进展。2012年,微软研究院使用深度神经网络应用在语音识别上将识别错误率降低了20%,取得了突破性的进展。2015年11月17日,浪潮集团联合全球可编程芯片巨头Altera,以及中国最大的智能语音技术提供商科大讯飞,共同了一套DNN语音识别方案。

2)图像分析

图像是深度学习最早尝试的应用领域。1989年,LeCun和他的同事们就发表了卷积神经网络的工作。2012年10月,Hinton和他的两个学生用更深的CNN在ImageNet挑战上获得了第一名,使图像识别向前跃进了一大步。

自2012年以来,深度学习应用于图像识别使得准确率大大上升,避免了消耗人工特征抽取的时间,极大地提升了效率,目前逐渐成为主流的图像识别与检测方法。

对神经网络的理解范文第3篇

关键词:神经网络 BP网络

中图分类号:TP3 文献标识码:A 文章编号:1672-3791(2014)01(c)-0240-02

神经网络是一门发展十分迅速的交叉学科,它是由大量的处理单元组成非线性的大规模自适应动力系统。神经网络具有分布式存储、并行处理、高容错能力以及良好的自学习、自适应、联想等特点。该模型对于拟合现实复杂世界有着重要的实用价值。

1 神经网络简介

人工神经网络(Artificial Neural Network,ANN),亦称神经网络(Neural Network,NN),是一种应用类似于大脑神经突触连接结构进行信息处理的数学模型,它是在人类对自身大脑组织结合和思维机制的认识理解基础之上模拟出来的,它是根植于神经科学、数学、统计学、物理学、计算机科学以及工程科学的一门技术。心理学家Mcculloch,数学家Pitts在20世纪40年代第一次提出了神经网络模型,从此开创了神经科学理论的研究时代,此后半个世纪神经网络技术蓬勃发展。神经网络是一种计算模型,由大量的神经元个体节点和其间相互连接的加权值共同组成,每个节点都代表一种运算,称为激励函数(activation function)。每两个相互连接的节点间都代表一个通过该连接信号加权值,称值为权重(weight),神经网络就是通过这种方式来模拟人类的记忆,网络的输出则取决于网络的结构、网络的连接方式、权重和激励函数。而网络本身通常是对自然界或者人类社会某种算法或函数的逼近,也可能是一种逻辑策略的表达。神经网络的构筑理念是受到生物的神经网络运作启发而产生的。人工神经网络则是把对生物神经网络的认识与数学统计模型向结合,借助数学统计工具来实现。另一方面在人工智能学的人工感知领域,我们通过数学统计学的方法,使神经网络能够具备类似于人的决定能力和简单的判断能力,这种方法是对传统逻辑学演算的进一步延伸。

2 神经网络模型及训练

2.1 生物神经元模型

人脑是自然界所造就的高级动物,人的思维是由人脑来完成的,而思维则是人类智能的集中体现。人脑的皮层中包含100亿个神经元、60万亿个神经突触,以及他们的连接体。神经系统的基本结构和功能单位就是神经细胞,即神经元,它主要由细胞体、树突、轴突和突触组成。人类的神经元具备以下几个基本功能特性:时空整合功能;神经元的动态极化性;兴奋与抑制状态;结构的可塑性;脉冲与电位信号的转换;突触延期和不延期;学习、遗忘和疲劳;神经网络是由大量的神经元单元相互连接而构成的网络系统。

2.2 人工神经网络模型

人工神经网络,使通过模仿生物神经网络的行为特征,进行分布式并行信息处理的数学模型。这种网络依靠系统的复杂度,通过调整内部大量节点之间相互连接的关系,从而达到信息处理的目的。人工神经网络具有自学习和自适应的能力,可以通过预先提供的一批相互对应的输入输出数据,分析两者的内在关系和规律,最终通过这些规律形成一个复杂的非线性系统函数,这种学习分析过程被称作“训练”。神经元的每一个输入连接都有突触连接强度,用一个连接权值来表示,即将产生的信号通过连接强度放大,每一个输入量都对应有一个相关联的权重。处理单元将经过权重的输入量化,然后相加求得加权值之和,计算出输出量,这个输出量是权重和的函数,一般称此函数为传递函数。

2.3 神经网络的训练

当神经网络的结构确定以后,接下来的工作就是训练和学习。神经网络不是通过改变处理单元的本身来完成训练和学习过程的,而是依靠改变网络中各神经元节点的连接权重来完成的。因此若处理单元要学会正确的处理所给定的问题,唯一用以改变处理单元性能的元素就是连接权重。

2.4 神经网络的分类

神经网络按照不同的结构、功能,以及学习算法,对网络进行分类,可以分为:(1)感知器神经网络:最简单的神经网络类型,只有单层的神经网络结构,采用硬限值作为网络传递函数,主要适用于简单的线性二类划分问题,在此类问题中处理的效率较高。但不适合本论文的课题。(2)线性神经网络:单层结构的神经网络,采用线性函数作为网络的传递,主要也是用于解决线性逼近问题。

3 BP神经网络

目前应用最为广泛的网络,具有多层网络结构,可以由一个或者多个隐含层。BP网络采用Widrow―Hoff学习算法和非线性传递函数,典型的BP网络采用的是梯度下降算法,也就是Widrow―Hoff算法所规定的。BP,即Back Propagation,就是指为非线性多层网络训练中梯度计算是采用信号正向传播、误差反向传播的方式。通过采用非线性传递函数,BP网络能够以仁义的精度逼近任何非线性函数,由于采用隐含中间层的结构,BP网络能够提取出更高阶的统计性质,尤其是当输入规模庞大时,网络能够提取高阶统计性质的能力就显得非常重要了,结合本文的课题,将采用BP神经网络及其改进算法进行组合集成实验,用以解决财务预警的实际问题,在后面的章节会采用相关实验证明组合集成的BP神经网络的优势。

4 径向基神经网络

径向基神经网络又称为RBF网络,它与BP网络同为多层前向网络,也能够以任意的精度逼近任何非线性函数,只是它与BP网络采用的传递函数不同,BP通常采用的是Sigmoid函数或线性函数作为传递函数,而RBF网络则采用径向基函数作为传递函数。本文后面将采用径向基函网络与BP网络进行对比。

5 竞争神经网络

竞争神经网络的特点是它的各个神经元之间是相互竞争的关系,众多神经元之间相互竞争以决定胜出者,或胜神经元决定哪一种原模型最能代表输入模式。

6 反馈神经网络

BP神经网络(Fredric M.Ham Ivica Kostanic Principles of Neurocomputing for Science―Engineering 2007)BP神经网络具有sigmoid隐含层以及线性输出层,具有很强的映射能力,本节我们对BP网络神经元和网络结构进行介绍。神经网络方法的具体步骤是:向网络提供训练例子,即学习样本,包括输入和期望的输出。确定网络的实际输出和期望输出之间允许的误差。改变网络中所有连接权值,使网络产生的输出更接近于期望输出,直到满足确定的允许误差。下图给出了一个具有N个输入的基本的BP神经元模型结构。途中每一个输入都被赋予一定的权值,与偏差求和和后形成神经元传递函数的输入。

我们来看看三层BP神经网络模型的数学表达,首先我们来确定途中各个参数所代表的涵义:

(1)输入向量:X=(x1,x2,…,xi,…,xn)T;

(2)隐层输出向量:Y=(y1,y2,…,yj,…,ym)T;

(3)输出层输出向量:O=(O1,O2,…,Ok,…,Ol)T;

(4)期望输出向量:d=(d1,d2,…,dk,…,dl)T;

(5)输入层到隐层之间的权值矩阵:V=(V1,V2,…,Vj,…,Vm);

(6)隐层到输出层之间的权值矩阵:W=(W1,W2,…,Wk,…,Wl)。

BP神经网络就是通过构建上述变量来完成网络的描述。

我们从上至下,从输出层开始看BP网络的工作原理,对于输出层:

k=1,2,…,l (1)

k=1,2,…,l (2)

对于隐层:j=1,2,…,m (3)

j=1,2,…,m (4)

其中的是传递函数我们可以采用单极性Sigmoid函数: (5)

(1)网络误差与权值调整

输出误差E定义:

(6)

(7)

在这一步的基础上,进一步展开至输入层:

(8)

j=0,1,2,…,m;k=1,2,…,l (9)

i=0,1,2,…,n;j=1,2,…,m (10)

式中负号表示梯度下降,常数η∈(0,1)表示比例系数。在全部推导过程中,对输出层有j=0,1,2,…,m;k=1,2,…,l,对隐层有i=0,1,2,…,n;j=1,2,…,m

(2)BP算法推导

对于输出层,式(9)可写为:

(8)对隐层,式(9)可写为:(10),对于隐层,利用式(7):

可得: (11)

将以上结果代入式(8),并应用式(5):,得到:

(12)

(13)

至此两个误差信号的推导已完成。将式(12)代回到式(8),得到三层前馈网的BP学习算法权值调整计算公式为:

(14)

对神经网络的理解范文第4篇

关键词:成绩采集;模式识别;神经网络;特征提取

中图分类号:G80 文献标识码:A 文章编号:1007-9416(2017)03-0069-01

对于未实行高考口语人机对话的省市,高考口语还是采用打分模式。然后人工采集,为解决这一问题,通过识别手写评分和OCR识别结果比对确保成绩采集的准确。而神经网络很适合用于解决字符识别问题。

1 BP神经网络

人工神经网络是在人类对其大脑神经网络认识理解的基础上人工构造的能实现某种功能的神经网络,是一种典型的前馈神经网络,包含输入层、隐层及输出层。

BP网络是典型的多层网络,分输入层、隐含层和输出层,算法由数据流的前向计算和误差信号的反向传播两个过程构成。通过这两个过程的交替进行,在权向量空间执行误差函数梯度下降策略,动态迭代搜索一组权向量,使网络误差函数达到最小值,从而完成信息提取和记忆过程[1]。

2 基于神经网络的英语口语成绩采集的实现

为实现更好的采集,需要设计适应识别的评分表,其中定位点、考生条码用于定位到考生并采集成绩,等级手写的分区需要通过神经网络识别等级,OCR等级识别区用采集等级并通过神经网络采集的等级进行比较。

2.1 采集过程

首先预处理图像获取样本进行训练,输入神经网络训练后输出看误差并调整各阶层的权值让输出同OCR值一致,正式识别两种模式结果不一致需要人工干预,有可能等级打错也有可能等级涂错,然后修正结果,确保等级信息准确无误。

2.2 图像预处理

原始评分表的输入有可能产生污点等噪音。所以在识别之前必须对图像进行预处理。预处理一般包括图像分割、灰度、二值化、平滑、去噪音、归一化和细化等。不同识别方法对于处理要求不一样预处理后离散和噪声和归一化和细化处理,将图片形成一个40 ×40 像素点阵(图1得分区图像预处理后图像)。

2.3 神经网络的特征提取

在手写等级识别中,特征的选择是非常关键问题。将经过预处理后的等级数字图像中提取最能体现这个字符特点的特征向量,然后提取出训练样本中的特征向量代入BP网络之中就可以对网络进行训练,提取出待识别的等级样本中的特征向量代入训练好的BP网络中,就可以对等级得分字符进行识别。

2.3.1 英语口语成绩采集中BP神经网络结构

将A、B、C、D等级图像的特征向量作为神经网路的输入,确定输入神经元。经过预处理的为40×40的矩阵,共1600各输入神经元。输出较为简单,只要识别A、B、C、D4个等级,输出节点数为4。为加快神经网络学习速度,3层BP网络最为恰当效率高。同时根据网络收敛性能的好坏来确定隐含层神经元个数。根据经验公式:

s=

其中,n为输入层神经元个数,m为输出层神经元个数[2]。计算可得隐含层神经元个数为79。

2.3.2 BP神经网络的训练

手写字符归一化和细化后的图像为40 ×40 的布尔矩阵,1600个元素组成一个手写字符的列矩阵,即字符的特征向量。由A、B、C、D这4个字符的特征列向量组成一个1600×4的输入矢量,训练次数达到最大值神经网络训练就结束。

2.3.3 口语等级识别等分结果

字符识别的正确率和拒识率与字符识别的判断值有关,判断值越高,识别的正确率就高。为确保成绩录取100%正确,通过识别和OCR识别比较,不同再通过人工识别录入确保准确(图2成绩自动识别等分)。

神经网络在口语成绩登分中的应用过程中大大减轻劳动强度,提高准确率,通过多重比对确保成绩录入准确,经过实践应用和比对成绩登分准确率100%,完全可以满足实际需要。

参考文献

对神经网络的理解范文第5篇

张雨浓:目前来说,人工神经网络、冗余度机器人学和科学计算与优化是我们科研攻关的三个主要方向,最早当始于导师毛宗源教授主持负责的“仿人脑信息处理与控制的人工系统的研究”,随后开展了近年来承担的国家自然科学基金委支持的课题“机器手臂的基于二次规划的冗余度解析方案”“冗余机器人实时运动规划的统一理论”等项目。就人工神经网络、人工智能等相关领域的研究情况而言,我国很多学术前辈、同事甚至是后学不同程度地做出了不少创新性的成果,有些甚至达到世界领先的水准,这一点还是值得我们欣喜的。

以人工神经网络为例来说,其理论在国内外都已经取得了许多令人瞩目的成果,国内也有许多学者相继提出了不同的人工神经网络模型,并取得了较为广泛的应用,且应用范围在不断扩展,渗透到了多个领域,如信号处理,智能控制、模式识别、机器视觉、非线性优化、图像处理等等。我团队近期拓展的神经网络模型的连接权值直接确定一项可避开传统BP(误差回传)神经网络的内在弱点,如冗长的权值迭代计算、局部极小点问题、网络参数及隐神经元数的选取困难等等,并将递归神经网络应用于冗余度机械臂的运动规划与控制中,展现出了良好的成果。

笔者:早在2001年,您率先提出变矩阵/向量/优化问题的神经网络新解法,能否借此机会有针对性地讲述几点其与传统解析与架构上的不同?

张雨浓:其与传统梯度方法的不同之处可归纳为如下数点:首先,新型神经网络解法是基于矩阵/向量形式的误差函数而设计的,令其每个误差元素不断递减至零而成。与此相对,基于梯度法的传统神经网络解法是基于非负或至少下有界的标量形式的能量函数而设计的;值得指出的是,在基于梯度法的神经网络解法中涉及的参数矩阵等多是探讨定常的情况。

其次,新型神经网络在处理时变问题时,系统地采用变矩阵,向量的时间导数信息,这也是新型神经网络能够全局指数收敛到时变问题的准确理论解的原因之一。与此相对,基于梯度法的传统神经网络解法因没有使用如此重要的时间导数信息而难以有效地求解时变矩阵/向量/优化问题。

另外,新型神经网络通常是用更为普适的隐动力学方程描述的;而基于梯度法的传统神经网络则多是采用显动力学方程描述的。

笔者:在您的科研范围内,冗余机器人是您科学研究的主项,它显然代表着高端的科技发展方向,我们想请张教授谈一下冗余机器人今天的发展状况及其特性、优势,其在未来科技领域内的应用情况,给人类社会所带来的利好。

张雨浓:就冗余机器人而言,现主要研究的是冗余机械臂,其可广泛地应用于工业生产之中,包括焊接、油漆,组装、绘图、挖掘,送料和其他智能活动等等。冗余机械臂是指末端执行器在执行给定的任务时有比其所必需自由度之上更多的自由度和灵活度的机械臂。在冗余机器人的运动学研究中,正运动学和逆运动学都是研究的核心部分。正运动学指给定关节变量,通过已知的手臂函数映射关系,能够唯一地确定末端执行器的位姿,而逆运动学是指给定末端执行器的笛卡尔变量,如何来实时求解机械臂的关节变量。两者刚好相对,但逆运动学的求解却不容易。后者直接关系到运动分析,离线编程、轨迹规划等等,是将工作空间内机器人末端的位姿转化成关节量值的前提。由于机械臂逆运动学问题的复杂性,我们将机械臂逆运动学逆动力学问题都统一地转化为最优化问题,具体为时变二次规划问题,这种做法能减少大量矩阵求逆,矩阵相乘等运算,减少计算时间,也更灵活、更加智能化。

这些科研结果能为装备制造,加工作业乃至空间机器人等领域的运动控制和新型机械臂的研发,制造以及技术提升提供一个更为科学更加有力的理论与实践基础。该冗余度解析理论将会在重工制造装备等方面展露,并带来广阔的应用前景和较大的社会经济效益,如用以改造和提升喷浆机器人、焊接和绘图机器人、车载机器臂系统等机械设备的运动解析与控制技术、操作模式及其安全性稳定性等。

笔者:2007年您所提出的BP神经网络权值直接确定理论研究,克服了传统BP神经网络所固有的迭代时间长、迭代次数多,易陷入局部极小点和学习精度不高等诸多缺陷。您一直站在科技前沿,在未来您的研究方向还将力求冲破哪些方面的障碍?

张雨浓:我们的一个科研工作重心就是人工神经网络的权值直接确定法以及外延的新方法新理论,比如在权值直接确定基础上的隐层神经元数目自适应确定研究等等。就未来在该方面继续做工作而言,首先我们仍将继续寻找,挖掘、探讨和考察不同的激励函数、网络模型,以求从不同的角度更加丰富地证实权值直接确定法的可行性,有效性、普适性以及优异的学习能力等等;其次,我们将(也已经在)探讨多输入多输出人工神经网络的权值直接确定法,并同时探研拓扑结构自适应确定算法于其中;另外,也如同我们向中科院某所提交的一个开放课题申请书中所言,应用神经网络权值与结构直接确定理论处理海量数据同样值得尝试与探讨,我们以往曾开发出基于Toeplitz矩阵的时间序列高斯过程回归技术处理了六万维矩阵求逆和两万四千维数据,这一结果或可以借鉴用以开发神经网络超万维数据处理技术。