首页 > 文章中心 > 卷积神经网络的主要思想

卷积神经网络的主要思想

前言:想要写出一篇令人眼前一亮的文章吗?我们特意为您整理了5篇卷积神经网络的主要思想范文,相信会为您的写作带来帮助,发现更多的写作思路和灵感。

卷积神经网络的主要思想

卷积神经网络的主要思想范文第1篇

关键词: 计算机视觉; D像理解; 卷积神经网络; 多层感知器

中图分类号: TN915.63?34; TP311 文献标识码: A 文章编号: 1004?373X(2017)14?0170?04

Abstract: The optical network is a lightweight, versatile and purely Matlab?based deep learning framework. The idea underlying its design is to provide an easy?to?understand, easy?to?use and efficient computational platform for deep learning research. The framework supports major deep learning architectures such as multilayer perceptron(MLP) networks, convolutional neural networks (CNN) and recurrent neural networks (RNN). The framework also supports the straightforward switch between both CPU and GPU for computation. The experiment result indicates that the framework has different applications in computer vision, natural language processing and robotic technology.

Keywords: computer vision; image understanding; convolutional neural network; multilayer perceptron

0 引 言

深层神经网络[1]已经给出了许多机器智能问题的主要进展,最新的神经网络模型的实现主要强调效率。这些框架可以由20万~50万行代码组成,并经常涉及多个编程语言[2?4]。它需要付出巨大的努力来彻底理解和改进模型。一个简单的和自我解释的深层学习框架是高度预期的且加快深层神经网络模型的理解和应用。

在此提出的光网络是一个轻便的、通用的和纯基于Matlab的深层神经网络模型。简洁、高效的Matlab编程技术已被用来实现所有的计算模块。许多神经网络流行的类型,如多层感知器、卷积神经网络、神经网络都在光网络中得以实现,是结合随机梯度下降的几个变化(SDG)为基础的优化算法。

自从光网络仅用Matlab实现,主要的计算用几百行代码来矢量化和执行,数量级比现有的框架更简洁。所有基本操作都可以轻松定制,只需有Matlab编程基本知识。数学化研究人员可以专注于数学建模的一部分而不是工程部分。

应用程序的用户可以很容易地理解和修改任何部分的框架,开发新的网络架构,使他们适应新的应用。除了简单,光网络还具有以下特点:光网络包含最现代的网络架构;计算机视觉中的应用、自然语言处理和强化学习已被证明;光网络提供了一个综合的优化算法的收集;光网络支持在CPU和GPU之间计算的简单切换;快速傅里叶变换来有效地计算卷积,从而使大卷积核被支持;光网络自动化的超参数优化了新型选择性的SGD算法。

1 模 块

主要的计算模块包括前馈过程和向后/反向传播过程。前馈过程评估模型,反向传播报告网络梯度。随机梯度下降算法是用来优化模型参数。

1.1 核心计算模块

光网络能够专注于数学部分而不是低层次的工程细节。为了使本文更完备,在此说明光网络中的主要计算模块。本文的所有网络和相关实验都是建立在这些模块的基础之上。

1.1.1 线性感知器层

一个线性感知器层可以表示为y=Wx+b。在这里,x表示input_dim×1大小的输入数据,W表示output_dim× input_dim大小的权重矩阵,b是一个output_dim× 1大小的偏置向量,y表示output_dim× 1大小的线性层输出。

从线性感知器输入映射到最终的网络输出可以表示为z=f(y)=f(Wx+b),f是一个非线性函数,它表示在更深层次的网络的计算;z是网络输出,通常是一个损失值。

1.1.2 卷积层

卷积层由一个多维滤波器组kio将输入特征图Nmap_in映射到输出特征图Nmap_out。每个输入特征图xi与相对应的滤波器组kio进行卷积,卷积的结果是求和并添加偏置值Bo生成o?th输出图: 。允许使用大的卷积核,快速傅里叶变换(FFT)是用来计算卷积(及相关)。根据卷积定理[5],在空间域卷积等价于在频域的逐点乘法。因此,ki*xi可以用傅里叶变换计算:ki*xi=F-1{F{ki}・F{xi}}。在这里,F表示傅里叶变换,“”表示逐点乘法运算,卷积层支持填充和跨越。

从o?th输出特征图到网络输出的映射可以表示为z=f(yo)。这里f是从o?th输出特征图yo到最终的网络输出的非线性映射。与第1.1.1节类似,,,需要在反向的过程中计算。

1.1.3 Max?pooling层

最大pooling层计算在窗口中的最大元素与步幅大小,一个定制的im2col_ln功能是实现转换pooling补丁为列向量,来矢量化在Matlab中的pooling计算。内置的最大功能是这些列向量可以返回pooling结果和这些最大值的指数,然后,在原来的批量数据恢复相应指数。此外,零填充可应用于输入数据。

不失一般性,从Max?pooling层输入到最终的网络输出的映射可以表示为z=f(y)=f(Sx),其中S是选择矩阵,x是一个列向量,它表示输入数据到这层。

在反向的过程中,被计算并传递给浅层:。

当pooling范围小于或等于该步长大小时,可以用Matlab中简单的矩阵索引技术计算出。具体来说,与输入数据相同大小的一个空的张量dzdx被创建。dzdx(from)=dzdy,from是pooling指数,dzdy是一个记录pooling结果的张量。当pooling范围大于步长大小时,x中的每一个条目都可以被汇集多次,并且反向传播梯度需要为这些多个汇集条目积累。在这种情况下,计算可以利用Matlab自带的功能accumarray()。

1.1.4 修正线性单元

修正线性单元(ReLU)作为一个主要的非线性映射函数被实现,一些其他的函数包括sigmoid和tanh这里的讨论就省略了。ReLU函数是很独特的函数,如果输入大于0,则输出0,否则y=ReLU(x)=x・ind(x>0)。在反向的过程中,如果输入数据是非负的,则梯度传递到较浅层,否则,梯度被忽略。

1.2 损失函数

通常,一个损失函数会和最深核心计算模块的输出相连。目前,为了达到分类任务光网络还支持softmax 中的LogLoss函数。

1.3 优化算法

随机梯度下降(SGD)为基础的优化算法是训练深层神经网络的主要工具。标准的SGD算法和它的一些流行的变型如adagrad[6],rmsprop[7], Adam[8],同样实现了深度学习的研究。值得一提的是,在此实现了一个新的选择性的SGD算法便于参数尤其是学习速率的选择。

2 实 验

2.1 多层感知器网络

在MNIST数据上[9]构造一个多层感知器网络来测试光网络的性能。网络从MNIST图像数据集取得28×28输入,在接下来的两层分别有128个节点。然后,128维特征连接10个节点来计算softmax输出。实验结果见图1。

和测试阶段的损失和错误率

2.2 卷积神经网络

在cifar?10数据[10]上由4个卷积层构建一个卷积网络来测试光网络的性能。此结构与来自MatConvNet的一个报告相同[3]。32,32,64,64在前三层有5×5大小的卷积核,最后一层有4 × 4大小的内核。ReLU函数应用到每一个卷积层之后作为非线性映射函数。光网络自动选择和调整学习速率并可以达到非常精确。与有固定的学习速率的SGD标准比较,选择性SGD具有更好的精度。最重要的是,使用选择性SGD避免手动调谐的学习速率。图2为实验结果。计算在一个Intel i5 6600K CPU和Nvidia Titan X GPU(12 GB内存)的台式电脑上进行。当前版本的光网络用这种网络结构在GPU上每秒可以处理750个图像,大约比使用的CPU速度快5倍。

2.3 LSTM网络

长短期记忆(LSTM)[11]是一个流行的递归神经网络模型。由于光网络的通用性,LSTM网络作为一个特定的应用程序可以在光网络包中实现。值得注意的是,在光网络中的核心计算模块用于执行时域前向过程和反向传播为LSTM。

在一个LSTM模型中的前向过程可以用公式表示为:

和测试阶段的损失和错误率

优化LSTM模型,在LSTM中通过时间的反向传播实现和计算最关键值:

采用一个关键的迭代属性来计算上述值:

一些其他的梯度可以通过使用上述计算输出的链规则计算:

LSTM网络测试一个字符语言建模任务,该数据集由选自莎士比亚作品的20 000个句子组成,每个句子断成67字(和标点符号),LSTM模型可以根据前一个字符预测下一个字符。网络模型中使用30个隐含节点并且RMSProp用于训练。在后10次训练,下一个字符的预测精度提高到70%。

2.4 Q?网络

作为强化学习中的应用,创建一个和MLP网络一致的Q?network[12]。然后将Q?network应用到经典的Cart?Pole的问题中[13]。Cart?Pole系统的动力学可以在一个两层网络数百次迭代中学习到。对Q?network更新过程的一次迭代为:

式中,act是由概率ε随机选择的。所需的网络输出值Qnew是利用观测到的reward和由此产生的状态的贴现值γV(statenew)计算出来的,通过均衡器预测当前的网络。通过使用最小平方损失函数:

3 结 论

为了深层神经网络模型的理解与发展,光网络提供了一个易于扩展的生态系统。在Matlab环境下,整个计算过程可以很容易地跟踪和可视化。这些设置的主要功能可以对深度学习研究界提供独特的便利。

⒖嘉南

[1] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. Imagenet classification with deep convolutional neural networks [J]. Advances in neural information processing systems, 2012, 25(2): 1097?1105.

[2] JIA Y, SHELHAMER E, DONAHUE J, et al. Caffe: Convolutional architecture for fast feature embedding [C]// Proceedings of the ACM International Conference on Multimedia. [S.l.]: ACM, 2014: 675?678.

[3] VEDALDI A, LENC K. Matconvnet: Convolutional neural networks for Matlab [C]// Proceedings of the 23rd Annual ACM Conference on Multimedia. [S.l.]: ACM, 2015: 689?692.

[4] BASTIEN F, LAMBLIN P, PASCANU R, et al. Theano: new features and speed improvements [J]. arXiv preprint arXiv, 2012, 20: 42?51.

[5] MALLAT S G. A wavelet tour of signal processing: the sparse way [J]. Academic press, 1998 , 31 (3) :83?85.

[6] DUCHI J, HAZAN E, SINGER Y. Adaptive subgradient methods for online learning and stochastic optimization [J]. The journal of machine learning research, 2011 (12): 2121?2159.

[7] TIELEMAN T, HINTON G. Lecture 6.5?rmsprop: Divide the gradient by a running average of its recent magnitude [J]. Neural networks for machine learning, 2012, 4 (2): 20?26.

[8] KINGMA D, BA J. Adam: A method for stochastic optimization [C]// Proceedings of the 3rd International Conference for Learning Representations. San Diego: [s.n.], 2015: 1412?1418.

[9] LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient?based learning applied to document recognition [J]. Proceedings of the IEEE, 1998, 86(11): 2278?2324.

[10] KRIZHEVSKY A, HINTON G. Learning multiple layers of features from tiny images [M]. [S.l.: s.n.], 2009.

[11] HOCHREITER S, SCHMIDHUBER J. Long short?term memory [J]. Neural computation , 1997, 9(8): 1735?1780.

卷积神经网络的主要思想范文第2篇

【关键词】人工智能 医学领域

1 引言

人工智能(AI)是上世纪50年展起来的新兴学科,主要内容包括:知识表示、自然语言理解、机器学习和知识获取、知识处理系统、计算机视觉、自动推理和搜索方法、智能机器人、自动程序设计等方面。在过去的几十年里人工智能涌现出了大量的方法,大致可分为两大类:第一类是基于Newell和Simon的物理符号系统假说的符号处理方法。这种方法大多采用从知识阶段向下到符号和实施阶段的自上而下的设计方法,第二类是采用自下而上设计的“字符号”方法。

2 人工智能的发展

全球对人工智能的研发经历了已经有70年的发展,从上个世纪的50年代开始一直到今天,历经了两次大起大落,但伴随着深度学习的重燃、庞大的大数据支撑以及计算能力的不断提升和成本的不断下降这些因素的出现,尤其是在摩尔定律、大数据、互联网和云计算、新方法这些人工智能进步的催化剂作用下,将迎来人工智能新的春天。

3 人工智能在医学领域上的应用

3.1 在神经网络中人工智能的应用

在医学诊断中人工智能的应用会出现一些难题,例如知识获取比较难、推理速度慢、自主学习以及自适应变化能力弱。研究人脑连接发现了以人工神经为特点可以解决在获取知识中所出现的瓶颈和知识种类繁琐问题,能够提高对知识的推理能力,包括自主学习,自组织等方面的能力,促进了神经网络在医学专家系统中的快速发展。

人工智能领域ANN,有不同于其他人工智能的方法,在传统的结构上,它只是AI分支中的一个,只能通过逻辑符号来模拟人脑的思维方式,进一步来实现人工智能,与之相比,不同的ANN是学习和训练为一体来达到智能的。ANN具有学习的能力及特殊方法,用户不用编写复杂的程序来解决所遇到的问题,只用提供有效的数据就可以完成。迄今为止,医学领域中对大部分的病理原因无法解释,无法确定病理原因,加上各种疾病的表现种类复杂多变。在医学的日常实践中,疾病相应的治疗只能以经验为基础来判断。所以,ANN有着记忆,学习和归纳总结为一体的人工智能服务,在医学领域有很好的应用发展趋势。

3.2 在中医学中人工神经网络的应用

在中医学中,所提出的“辨证论治”中的“证”具有模棚性、不确定性的特点,主观性比较强,因此中医的诊断方法和治疗手段与医师的经验水平有很大联系。数年来在实验研究,临床观察,文章整理,经验总结上,都有着对“证”的研究思想的深入调查。一部分“辨证”的过程可以用人工神经网络来替换使用。恰当的中医症状可以作为基本输入和适当人工神经网络模型,人工神经网络能够根据以往的学习“经验”来进行综合分析,从而提出中医诊断方法。

由神经元结构模型、网络连接模型、网络学习算法等几个要素组成了人工神经网络。具有某些智能系统的功能。 按照网络结构来划分,人工神经网络有很多不同的种类,例如感知器、BP网络、Hopfield网络等,目前应用最为广泛的神经网络就是其中的BP网络。这种前沿网络非 BP网络所属,网络的结构与权值能够表达复杂的非线性 I/0映射关系。凭借 BP网络优良的自主学习功能,既可以通过误差的反向传播方法,对照已知样本反复进行训练,也可以调整网络的权值,直到网络的 I/0关系在某一块训练指标下最接近样本为止。

3.3 人工智能在临床医疗诊断中的应用

计算机编写的程序主要根据专家系统的设计原理和方法来模拟医生的医学诊断,以及通常治疗手段的思维过程来进行。医疗专家系统是临床医疗诊断中人工智能的很好体现,不仅能够处理较为复杂的医学治疗问题,还能当做医生诊断疾病的重要工具,更重要的是传承了专家们的宝贵医学治疗经验。

3.4 人工智能技术在医学影像诊断中的应用

目前,在医学影像中存在着的问题,比如:误诊率高、缺口大。这些问题需要通过人工智能的方法来解决。在医学影像技术领域人工智能的应用包括主要的两个方面,分别是:第一个方面为图像识别,第二个方面为深度学习,其中人工智能应用最核心的部分实深度学习。这两个部分都是基于医学影像大数据所进行的数据上的挖掘和应用。这两个方面所进行的数据挖掘及其应用都是依据医学影像大数据来完成的。

Geoffrey Hinton教授是神经网络领域的大师,2006年,他与其博士生在《Science》和相关的期刊上发表了论文,第一次提出了“深度信念网络”的概念。2012年,由斯坦福大学Fei-Fei Li教授举办的ImageNet ILSVRC大规模图像识别评测任务是由Hinton教授的研究团队参加的。这个任务包括了120万张高分辨率图片,1000个类比。Hinton教授团队使用了全新的黑科技多层卷积神经网络结构,将图像识别错误率突破性地从26.2%降低到了15.3%。 这个革命性的技术,让神经网络深度学习以迅速的速度进入了医疗和工业的领域范围,随后这一技术被陆续出现的医疗影像公司使用。例如:国际知名的医学影像公司Enlitic和国内刚刚获得有峰瑞资本600万天使轮融资的DeepCare。都是不断积累大量影像数据和诊断数据,继续对神经元网络进行深度的学习训练,从而有效的提高了医生诊断的准确率。

人工智能不仅能使患者的健康检查快速进行,包括X光、B超、核磁共振等。另外还能大量减少医生的读片时间,提升了医生的工作效率,降低误诊率。

4 总结

人工智能软件工作效率远远超过了人类大脑,不仅能够更快速的找到数据的模式和相似性,还能有效帮助医生和科学家提取重要的信息。随着人工智能的发展及其在医学领域的逐渐普及和应用,两者的互相融合在未来必定成为医学发展的重要方向。

参考文献

[1]冯伍,张俊兰.人工智能在医学上的应用[J].电子设计工程,2010(01).

[2]杨琴,陈家荣.人工智能在医学领域中的应用[J].科技风,2012(12),100-101.

[3]王宇飞,孙欣.人工智能的研究与应用[J].信息与电脑,2016(05).

[4]铅笔道.人工智能与影像诊断相结合的医生界阿尔法狗,2016(03).

卷积神经网络的主要思想范文第3篇

关键词:计算机工程;视觉领域;深度学习技术

引言

计算机视觉简言之即是依靠电子设备成像来代替生物视觉系统,随后依靠提前写好的程序对获取的图像信息实施处理。该技术的短期应用目的在于完成相对简单的智能视觉工作,而深度学习技术在计算机视觉领域的应用,在很大程度上丰富了其功能,提高了识别效率,让其能够在更多行业发挥出自身价值。

1计算机视觉领域的深度学习技术

1.1图像分类中的深度学习技术

基于深度学习技术,卷积神经网络得到了进一步的发展,其应用范围也更为宽泛,例如说在图像分类中的运用。图像分析需要对图像实施扫描分析,随后对其具体类别予以划分,更加注重其整体语义。目前相对普遍进行图像分类的数据集为ImageNet,其中囊括了非常丰富的内容,存储了近1500万个图像的URL并将图像划分为数万余个类型。ImageNet每年组织开展的大规模视觉识别挑战赛(ILSVRC)中,图像分类算法与技术也不断创新,图像分类的准确性也持续提升。ImageNet数据集表现出规模大、类型多的突出特点,所以更加适用于迁移学习,即是把部分核心技术或结构拓展应用到各个领域,对于视觉领域的深度模型来说,能够把模型内的网络结构和参数直接共享到其他数据集,从而对数据实施微调。图像分类属于计算机视觉领域最为基础的环节,对于图像分类模型创建和数据分析处理经验也能够迁移应用到其他领域中。

1.2目标检测中的深度学习技术

目标检测相对于图像分类而言表现出更多的复杂性,主要任务是在囊括多种不同类型物体的图像内精确定位和识别某一物体,恰恰是出于这一目的,深度学习技术在目标检测中的应用更为复杂,要实现更加精准的效果也相对更难。近年来针对目标检测的算法日益更新,如优化后的R-CNN算法,是借助于卷积神经网络思想,对物体进行分类,提取物体特征。而SelectiveSearch算法的出现有了进一步的创新和突破,有效促进了检测准确性的提高,这也给通过卷积神经网络进行目标检测带来了更多可能性,随后的FastR-CNN算法极大地促进了目标检测效率的提升,该算法对提取候选区的问题予以优化,大大减少了候选区提取和目标检测过程的时间。目标检测网络以FastR-CNN算法作为支撑,于输出位置设置滑动窗同时和候选区域网络实施连接,目标检测的关键在于卷积神经网络,依靠它把各个点的特征进行提取,再借助回归算法获得对应范围出现目标的概率[1]。

1.3人脸识别中的深度学习技术

人脸识别主要是借助相应算法对人脸特征实施提取,因为其建立的人脸模型表现出一定的不稳定性,因此模型建立往往也表现出一定的难度,相对于建立刚体模型而言更为困难。人脸识别通常来说涉及人脸检测定位以及特征提取两个方面,人脸检测定位是基于背景图像中将人脸目标分割出来,实施归一化处理,而人脸特征提取算法不变。前者存在的技术难点是人脸目标具有多样性以及背景图像具有复杂性,所以对背景情境实施合理假设并予以简化是十分关键的。与此同时,高维空间人脸模型的建立较为复杂,精确度估算难度较大,人脸特征提取的技术难度是因为人脸属于弹性模型,其难度超过刚体模型。一般来说,较为常见对人脸特征实施提取与识别的方法有几何特征法、特征脸算法以及弹性模型法,CNN算法和过去的特征提取算法比起来表现出更高的稳定性和适用性,同时能够有效抵抗外部干扰,促进人脸识别技术的推广应用。

2应用实例

2.1安防领域的应用

深度学习技术在计算机视觉领域中的应用可以为安防行业提供更佳的解决方案,比如说人脸识别技术的应用,很多大型企业如Facebook、腾讯、阿里巴巴等都将非常关注和重视。作为深度学习技术在计算机视觉领域应用的重要内容,人脸识别在安检以及反恐等领域中也能够发挥出很好的效果。与此同时,对行人角度的REID技术实施研究,依托于深度学习强化目标检测,对目标特征实施提取和刻画,能够为异常行为监控和跟踪带来支持[2]。

2.2无人驾驶领域的应用

对于无人驾驶领域来说,选择激光或雷达这类传感器的成本更高,基于深度学习的计算机视觉技术也能够提供新的解决方案。依靠摄像机对视频画面进行采集,对获取到的图像实施分析,提供类似于前车碰撞预警等功能。在这一过程中,计算机视觉技术可以实现对目标的检测识别、对目标车辆的跟踪分析、对车道线是否偏离进行检测等。基于深度学习技术的检测识别表现出更加强大的优势,现阶段深度学习芯片日益增多,对于无人驾驶技术的发展也带来了更加有力的支持。

2.3智能家居领域的应用

过去的很多智能家居产品一般都是依靠智能手机蓝牙或者WiFi等途径来实现对家居产品的控制,这一方案即便能够做到家居智能化,但其水平依旧有待提高。基于深度学习技术,能够有效促进智能家居行业的更新发展,除开语言、语音识别之外,还能够利用计算机视觉技术实现人际交流与互动,比如说手势识别控制。2.4教育领域和图片搜索领域的应用基于深度学习的计算机视觉技术也能够在智慧教育中得以普及应用,如近年来很多新的拍照解题App,使用者只需要利用手机相机拍照上传即可获得相关题目的分析解答,促进学习者学习效率的提升。此时视觉技术包括了对文字的检测与识别,另外针对个人简历识别、文档识别等方面也能够进行拓展应用。同时计算机视觉技术还可以在图片搜索领域中得以应用,使用者通过拍摄上传相应的图片,即可从数据库中找出与原图相似的图片,深度学习属于一种非常高效的技术手段,能够提供更加快速高效的图像检测功能,结合图像搜索引擎,为用户带来更加便捷的服务[3-5]。

2.5医疗影像数据中的应用

医学影像直接关系到对患者疾病诊断的准确性,对于放射科的医务人员来说,依靠医学影像能够促进诊断效率的提升。现阶段国内外诸多医学专家队伍,在心血管、肿瘤、神经内科以及五官科等都建立了精准深度学习模型,极大地推动医疗水平的提升,为广大患者带来了更加便捷和高效的医疗服务。基于深度学习技术的计算机视觉在医疗影像数据中的应用主要集中在如下几个方面:(1)能够提供临床诊断辅助等医疗服务;(2)依靠数据分析技术,能够在很大程度上促进医疗机构经营管理水平的提升;(3)在医学影像中的应用,能够让医务工作者更加直观便捷地获取患者影像;(4)深度学习技术能够为医疗大数据的可视化带来便利;(5)在药企研发工作中的应用,可以处理好过去一直以来药物研发周期长和成本居高不下的问题;(6)在健康管理领域中的应用,借助于可穿戴设备来对个人健康数据实施监测,进而对疾病风险予以提前预测。

卷积神经网络的主要思想范文第4篇

关键词:谐波电流;电力系统;检测

一、引言

近年来,随着电力电子技术的迅速发展,各种新型电力电子器件相继进入市场,随之而来的谐波污染日益严重,由电网谐波引起的电能质量问题也日益受到重视,采用有源电力滤波器已成为谐波补偿的一种重要趋势。其基本原理是从补偿对象中检测出谐波电流,由补偿装置产生一个与该谐波电流大小相等,极性相反的补偿电流与其相抵消,其中,谐波电流的正确检测是决定补偿效果的重要环节。下面就分别论述一下目前这几种谐波电流检测方法。

二、谐波电流的检测方法

(一)模拟滤波器

模拟滤波器的实现方法是:当信号不含低于基频的次谐波时采用低通滤波器,当信号含有次谐波时采用带通滤波器来获得基波分量,用减法从信号中减去基波分量就得到分量。该方法具有简单快速的优点,但是这种检测方式有很多缺陷:对环境的依赖较高,当,电网频率波动或滤波器的元件参数变化时效果变差:无法分离出基波中的有功与无功分量;当谐波频率与基波接近时,滤波器的归一化截止频率很小,波动特性很差;特别是当基波频率不固定而在较大范围波动时,滤波器设计非常困难。

(二)Fryze有功电流检测

其原理是将负载电流分解为与电压波形一致的分量,将其余分量为广义无功电流(包括谐波电流)。它的缺点是:因为Fryze的功率定义是建立在平均功率基础上的,需要一个周期的积分,有至少一个周期的延时,不适于负载变化频繁的场合。而且只能同时检测出谐波及无功电流,不能只检测谐波电流或只检测无功电流,有很大的局限性。

(三)基于FFT的谐波电流检测

离散傅立叶变换DFT(DiscreteFourierTransform)在实际中非常重要,利用它可以计算信号的频谱、功率谱和线性卷积等。但是当N很大时,DFT的计算量太大,这样使DFT的应用受到限制。1965年J.W.Colley和J.W.Tukey提出快速傅立叶变换,大大减少了计算量。FFT并不是DFT的另一种变换,而是为了减少DFT计算次数的一种有效的快速算法。基于FFTDE 的谐波电流检测,是一种建立在傅立叶分析基础上的数字化分析方法。其工作原理如图1—2所示。其中i1表示负载电流,ic表示检测所的谐波电流。

图1的工作原理是:在同步脉冲作用下将模拟信号进行离散化处理,通过模拟转换器变为数字量,再用数字分析的方法,快速傅立叶变换(FFT)进行处理,最后得到各次谐波幅值和相位系数,经过低通滤波器(LPF)检测出所需要的信号,对于检测出的信号作FFT反变换即得补偿电流信号。如果需要得到其模拟量,需要用到

数摸转换器再把数字量转化为模拟量。采用这种方法需要有高精度的数摸转换器,同时要求输入信号有较高的信噪比。基于傅立叶的数学化分析方法,要求被补偿的波形是周期变化,否则会带来较大的误差。这种方法的优点是可以选择拟消除的谐波次数,缺点是具有较长的时间延迟,实时性差,存在栅栏效应和泄漏现象,使得算出的信号参数:频率、幅值和相位不准,尤其是相位误差很大,无法满足准确的谐波测量要求。

(四)同步检测法

对于同步检测法用于不平衡三相系统中无功和谐波电流的补偿,其基本思想是分别考虑各相情况,并把补偿分量分配到三相中,统一确定各相补偿电流。但是由于该检测法实现根据总平均功率确定补偿后电流,再计算出补偿指令电流,而在计算补偿后电流时,不仅需要知道三相电路的平均功率,还需要知道每个相电压的幅值,因此检测过程中的延迟较大,也仅适用于三相电压均为正弦波的情况,若电压波形存在畸变,必将影响检测精度。

(五)基于瞬时无功补偿理论的检测方法

(1)瞬时无功功率的基础理论。三相电路瞬时无功功率理论首次于1983年由赤木泰文提出,以后该理论经过不断研究逐渐完善。赤木泰文最初提出的理论亦称pq理论,是以瞬时实功率p和瞬时虚功率q的定义为基础,其主要一点不足是未对有关的电流量进行定义。下面介绍以瞬时电流ip和iq为基础的理论体系。设三相电路各相电压和电流的瞬时值分别为 va、vb、vc和ia、ib、ic。分别为分析问题方便,把它们变换到α-β两相正交的坐标系上研究。由下面的变换可以得到α、β两相瞬时电压vα、vβ和α、β两相瞬时电流iα、iβ。严格地讲,基于瞬时无功功率理论的谐波电流检测法仅适用于三相三线制、电源电压为三相对称无畸变、三相负荷平衡的负载谐波电流的检测。所以,在有源电力谐波滤波器设计中必须针对具体电网和负载的特点采取相应措施来消除或减小各种不利因数的影响:①变流器尽可能采用三相三线制接法的桥式电路,从而避免零序电流的存在。②如果只需要谐波电流的检测,则只要一组与电源同频率的三相对称正弦电压,此电压不必是负荷的实际供电电源电压。因此,为了避免变流器网侧电源电压波形畸变严重,可采取下列措施之一:A、三相电源电压经过低通滤波器滤除高次谐波后再参与谐波电流的检测运算,此时要求三相所用的低通滤波器特性一致;B、运用锁相技术产生三相正弦电压,再参与瞬时谐波电流的检测运算。

二、结语

本文从理论上对有源电力滤波器的实现技术和控制策略进行研究,提出了以上几种有源电力滤波器谐波电流的检测方法。由于这几种检测方法在应用中都有其局限性,因此,针对有源电力滤波器的检测技术和控制策略还需要做进一步的探索。随着计算机运算速度的提高和高速微处理器(DSP)的出现,为控制系统的数字化奠定了基础。有源电力滤波器要求其控制电路必须能完成实时检测、计算并做出决策,这就为计算机开辟了崭新的应用领域,必将为有源电力滤波器的实用化发挥越来越重要的作用。

参考文献:

[1] 吴竞昌.供电系统谐波.北京: 中国电力出版社,1998

[2] IEC1000-3-2, Electromagnetic Compatibility-Part 3: Linits-section 2:Limits for harmonic crrentemissions (equipmentinputcurrent <16A per phase)[s].March,1995

[3] 中国国家标准GB/T14549-93. 电能质量公用电网谐波 . 中国标准出版社 ,1994

[4] 肖国春等. 电能质量控制技术的发展. 江苏机械制造与自动化,2001年第1期

卷积神经网络的主要思想范文第5篇

论文摘要:当点扩展函数未知或不确知的情况下,从观察到的退化图像中恢复原始图像的过程称为图像盲复原。近年来,图像盲复原算法得到了广泛的研究。本文在介绍了盲图像恢复算法的现状的基础上进一步研究其的发展方向。

一、引言

图像恢复是图像处理中的一大领域,有着广泛的应用,正成为当前研究的热点。图像恢复的主要目的是使退化图像经过一定的加工处理,去掉退化因素,以最大的保真度恢复成原来的图像。传统的图像恢复假设图像的降质模型是己知的。而许多情况下,图像的降质模型未知或具有较少的先验知识,必须进行所谓的盲恢复。其重要性和艰巨性而成为一个研究热点。目前所能获取的观测图像是真实图像经过观测系统成像的结果。由于观测系统本身物理特性的限制,同时受观测环境的影响,观测图像和真实图像之间不可避免地存在着偏差和失真,称观测系统对真实图像产生了降质。图像恢复的目的就是根据降质的观测图像分析和计算得出真实图像。

二、图像盲恢复算法的现状

总体来说,图像盲复原方法主要分为以下两类:一是首先利用真实图像的特别特征估计PSF,然后借助估计得到的PSF,采用经典的图像复原方法进行图像的复原。这类方法将PSF的估计与图像的复原过程分为2个不同的过程,因而具有较少计算量的特点;二是PSF辨识和真实图像估计相结合,同时辨识PSF和真实图像。这类算法较为复杂,计算量较大。另外,对于点扩展函数也考虑了空间变化的复杂情况。针对目前的盲复原算法的现状,根据退化模型的特点,重新将算法分为空间不变的单通道盲复原算法、空间不变多通道盲复原算法和空间变化图像盲复原算法3类。

(一)单通道空间不变图像盲复原算法

在这类算法中,最为常用的是参数法和迭代法。

1)参数法。所谓参数法,即模型参数法,就是将PSF和真实图像用某一类模型加以描述,但模型的参数需要进行辨识。在参数法中,典型的有先验模糊辨识法和ARMA参数估计法,前者先辨识PSF的模型参数,后辨识真实图像,属于第1种类型的图像盲复原算法,因而计算量较小;后者同时辨识PSF和真实图像模型参数,属于第2种类型图像盲复原算法。

2)迭代法。所谓的迭代法,不是通过建立模型而是通过算法的迭代过程,加上有关真实图像和PSF的约束来同时辨识PSF和真实图像的方法。迭代法是单通道

图像盲复原算法中应用最广泛的一类算法,它不需建立模型,也不要求PSF为最小相位系统,因而跟实际更为接近。在这类算法中,迭代盲复原算法(IBD),基于非负性和决策域的递归逆滤波器算法(NAR2RIF),基于高阶统计特性的最小

熵算法等最为典型。

(二)多通道二维图像盲复原

多通道二维图像盲复原,这类方法将数字通讯领域应用的一维多通道盲原分离算法扩展到二维情况并用于图像的盲恢复。这类算法中有两种代数方法,一种是先辨识模糊函数,再采用常规的恢复算法进行复原;另一种是直接对逆滤波器进行估计。此类算法的优点在于不需对初始图像进行估计,也不存在稳定性和收敛性问题,对图像以及模糊函数的约束是松弛的,算法具有一般性。但是第1种算法要求采用复原算法具有收敛性;第2种算法对噪声敏感。

(三)空间改变的图像盲复原方法

在许多实际的应用中,模糊往往是空间变化的,但由于处理工作的难度,目前的研究较少,基本有相关转换恢复和直接法两类。

相关转换恢复的基本思想是区域分割,即将整幅图像分为若干局部区域,然后假设在各个局部区域模糊是空间不变的,利用空间不变的图像复原有关算法进行复原。这类方法都是基于窗口的模糊辨识技术,图像的估计取决于窗口的大小,由于模糊参数是连续变化的,在范围较大时空间不变的假设是不成立的,因而模糊的估计精度较差,而且这种方法只能针对部分空间变化的模糊进行处理,缺乏通用性;其次在区域的边上存在振铃现象。

直接法的基本思想是直接对图像进行处理。如采用简化的二维递推卡尔曼滤波器进行图像模型和模糊模型的直接转换方法,其缺点是只能针对有限的模型,而且模型数增加,计算量会显著增大;采用共轭梯度迭代算法,但只见到一个31×31的文本图像处理的结果报道,对于大图像处理效果尚需进一步的研究;将空间变化图像系统建立成马尔苛夫随机模型,对复原过程,采用模拟退火算法进行最大后验估计的方法,这种方法避免了图像的窗口化,并能克服模糊参数不连续性造成的影响,但这种方法只能局限于将模糊过程建立成单参数的马尔苛夫随机模型的情况,而且计算量也较大。

三、图像盲恢复的应用前景

(1)现有算法的改进以及新的算法研究。现有各种算法还存在许多不足,有必要对算法进一步改进。如IBD算法中,如何选择初始条件才能保证算法的收敛;如何选择算法终止条件才能保证恢复的质量;如何选择滤波器中的噪声参数才能减少噪声的影响。又如NAR2RIF算法中,如何进一步解决噪声敏感问题,支持域的确定以及如何将算法扩展到非均匀背景的情况等。提出新的算法更好地解决图像盲复原问题,也是今后研究的热点。

(2)基于非线性退化模型的图像盲复原算法。在实际应用中,严格来讲,所有的退化模型都是非线性的。对模型采用线性化的方法进行近似处理,虽然算法简单,但对非线性严重的情况处理效果并不理想。基于多项式以及神经网络两种参数模型处理非线性信号盲分离算法,算法扩展到二维图像情况需要进一步研究。研究基于非线性退化模型的图像盲复原算法也是下一步研究方向之一。

(3)去噪处理算法研究。加性噪声的存在,使图像的复原问题变成了一个病态问题,而且由于一般假设只知道噪声的统计特性,因此要从退化图像中完全去除噪声是不可能的。另外,由于噪声的存在,恢复的效果并不理想,结合降噪的图像盲恢复的算法研究有很现实的意义,这方面也进行了部分工作。为克服噪声的影响,一般采用先进行降噪,后进行复原;二是将降噪和复原同时进行这两类方法。目前,大多数算法中将噪声描述成高斯噪声进行研究,在实际应用时有较大局限性。对于非高斯情况的研究采用基于噪声的高阶统计特性的去噪算法研究也是很重要的研究方向,也可采用其他类型的方法进行降噪,利用自组织映射的非线性独立组件分析方法进行图像降噪处理算法。

(4)实时处理算法。算法的的复杂性是制约算法应用的一个重要方面。可采用正则化的离散周期Radon变换的方法将二维的卷积转化为一维进行处理,以提高算法的速度;也可采用神经网络的实时处理算法。算法的实时性是算法实际应用的先决条件。

(5)应用研究。算法的应用是推动算法研究的动力。虽然图像盲复原算法在天文学、医学、遥感等方面获得了较大的应用,但将算法应用到一般的工业图像实时检测、机器视觉、网络环境下的图像传输恢复、刑事侦破等方面还有大量的工作要做。

参考文献:

[1]薛梅,杨绿溪.用于含噪二值图像的改进NAS-RIF图像盲复原算[J].数据处理.2006.17.(2).

相关期刊更多

数据采集与处理

北大期刊 审核时间1-3个月

中国科学技术协会

北华大学学报·自然科学版

统计源期刊 审核时间1-3个月

吉林省教育厅

遥测遥控

统计源期刊 审核时间1-3个月

中国航天科技集团有限公司