首页 > 文章中心 > 计算机视觉理论与方法

计算机视觉理论与方法

前言:想要写出一篇令人眼前一亮的文章吗?我们特意为您整理了5篇计算机视觉理论与方法范文,相信会为您的写作带来帮助,发现更多的写作思路和灵感。

计算机视觉理论与方法

计算机视觉理论与方法范文第1篇

(1)课程内容方面:工程应用价值较小的内容居多;具备工程应用价值的方法,如基于结构光的3D信息获取,在课程内容中却极少出现。

(2)课程定位方面:现有课程体系中未能体现最新研究成果,而掌握世界最新工程应用成果是卓越工程师的基本要求之一。

(3)教学形式方面:传统计算机视觉课程侧重基本原理,尽管范例教学被引入到课堂教学中,在一定程度上帮助学生理解,但卓越工程师培养目标是培养学生解决实际工程问题的能力。针对卓越工程师培养目标,以及目前计算机视觉课程中存在的问题,本文提出工程应用导向型的课程内容、面向最新成果的课程定位、理论实例化与工程实践化的教学形式,以培养具有扎实理论基础及工程实践能力的卓越工程师。

1工程应用导向型的课程内容传统计算机视觉课程围绕Marr理论框架展开教学,其中部分原理仅在理想状态或若干假设下成立,不能直接运用到工程实践中。近年来已具备工程应用基础的原理及方法,在传统课程内容中较少出现,如已在工业测量、视频监控、游戏娱乐等领域中应用的主动式三维数据获取方法等。我们对工程应用价值高的课程内容,增加课时,充分讲解其原理及算法,并进行工程实例分析;对工程应用价值较低内容,压缩课时,以介绍方法原理为主。例如,在教授3D信息获取部分时,课时主要投入到工程应用价值较大的内容,如立体视觉、运动恢复结构、基于结构光的3D信息获取等;而对于基于阴影的景物恢复等缺乏应用基础的内容主要介绍其基本原理,并引导学生进行其工程应用的可行性分析,培养学生缜密的思维习惯,训练学生辩证的分析能力。

2面向最新成果的课程定位计算机视觉近十年来发展迅速,新方法和新理论层出不穷,在现有课程体系中未能得以体现。跟进世界最新成果是卓越工程师的基本要求之一,因此计算机视觉课程定位应当面向国际最新成果。为实现这一目标,我们主要从以下两方面入手。

(1)选用涵盖最新成果的教材。我们在教学中加入国际最新科研成果及应用范例,在教材选取上采用2010年RichardSzeliski教授所著《Computervision:algorithmsandapplications》作为参考教材。该书是RichardSzeliski教授在多年MIT执教经验及微软多年计算机视觉领域工作经验基础上所著,涵盖计算机视觉领域的主要科研成果及应用范例,参考文献最新引用至2010年。这是目前最新的计算机视觉著作之一,条理清晰,深入浅出,特点在于对计算机视觉的基本原理介绍非常详尽,算法应用紧跟国际前沿。

(2)强化学生调研及自学能力。“授之以鱼”,不如“授之以渔”。在教授学生的同时,更重要的是培养学生调研、跟踪、学习并分析国际最新科研及工程应用成果的能力。为强化学生的知识结构,培养学生跟踪国际前沿的能力,我们在教学中加入10%的课外学时,指导每位学生完成最近三年本领域的国际最新文献调研及工程应用新技术调研,并撰写相关调研论文。同时,设置2学时课内学时,让每位学生介绍调研成果,并进行课堂讨论。在调研基础上,选择相关算法进行了实验证明,进一步强化学习成果。实践证明,由于学生能够根据自己的兴趣,选择本领域感兴趣的课题进行深入调研,极大地调动了学生的积极性,强化了学生调研、跟踪、学习并分析国际最新科研及工程应用成果的能力。

3工程实践化的教学形式我们在教学中提出工程实践化的教学形式,即以人类视觉功能为背景,由相应工程实例引出相关理论,并最终将理论运用到工程实例中的算法和方法传授给学生。

计算机视觉理论与方法范文第2篇

 

1 计算机视觉定义

 

人类天生具有五感,视觉便是其中之一,而计算机视觉,就是让计算机网络能够睁开眼看世界。让计算机有一定的视觉能力,可以从各个方面帮助人们进行监督、检验检测。利用计算机视觉科学可以使工作变得更加简便。计算机视觉主要应用于对二维码、条形码、照片、视频资料如片段等进行智能处理。

 

2 计算机视觉研究在医疗、交通中的作用

 

随着医学成像技术的发展与进步,图像处理在医学研究与临床医学中的应用越来越广泛。最常见的有癌细胞显微图像分割与识别、基于多特征融合的血红细胞识别和乳腺癌细胞计算机的自动识别等。计算机视觉技术的迅猛发展,为医疗诊断带来了很大的方便,同时促进了临床医学的发展。另外,在各大综合医院慢慢发展起的体检体系中,计算机视觉技术起到了决定性因素。随着体检的人数上升,对医院体检的管理、速度、准确性都提出了更高的要求。视觉识别轻而易举的解决了这个问题,只需要去识别体检人员的身份证,就可以将体检人员对号入座,检查过的项目,没有检查的项目一目了然。理化指标的检验,只需要在采血试管或采尿瓶上粘贴与体检者对应的条形码即可,利用视觉技术对号入座,方便而准确的确定每一位体检人员的血样及尿样。及提高了医院的工作效率,又将错误率降到最低。

 

计算机视觉在交通上同样得到了广泛的应用及发展。交通安全是交通运输中的重大问题,随着近年来机动汽车数量的迅猛增长,交通事故的发生也随之越来越频繁,给人类社会带来的危害也日趋严重,使很多的家庭失去亲人,甚至家破人亡。全国一线城市例如:北京、上海、广州、深圳等交通道路供需的矛盾日趋严重,交通安全、交通堵塞及环境污染已成为困扰我国交通领域的三大难题。基于图像处理的计算机视觉技术是通过摄像机获取场景图像,并借助于计算机软件构建一个自动化或半自动化的图像、视频理解和分析系统,并提供及时准确的图像、视频处理结果,以模仿人的视觉功能。主要功能如下:

 

一是基于计算机视觉技术的车辆牌照自动识别: 车辆牌照是车辆的唯一身份,对车辆牌照的有效检测与识别在车辆违章检测、停车场管理、不停车收费、被盗车辆稽查等方面有着重要的应用价值。尽管针对车牌识别技术的研究相对成熟,然而在实际的应用场景中,受到天气、光照、拍摄视角、车牌扭曲等因素的影响,车牌识别技术仍然有一定的改善空间。

 

二是基于计算机视觉技术的车辆检测与流量统计:目前城市交通路口的红路灯间隔时间是固定的,而不同路段、不同时间段交通流量是随机变化的。若能根据各个交通路口的交通状况辅以计算机进行自动分析,并判断与预测交通流量,无疑为交通警察出警,红绿灯时间间隔的动态设置等提供技术支持。

 

三是基于计算机视觉技术的公交专用道路非法占道抓拍:公共交通是每个城市交通的重中之重,城市的公共交通为老百姓提供了便捷的出行方式。公共交通的发展,有利于城市的节能减排,有利于降低城市的空气污染指数。由于城市公共交通具有运量大、相对投资少、人均占有道路少等优点,解决城市交通问题必须优先发展城市公共交通。然而目前拥挤、缓慢的公交出行方式已成诟病,因此发展“快速公交”将是未来公交的一种运行模式。道路畅通则是发展“快速公交”的前提,相应地,公交专用车道的设定必不可少。为防止其他社会车辆的驶入,并对违规驶入的其他社会违规车辆进行抓拍与惩罚是保证公交车道公交车专驶的一种重要手段。因此在公交车前部装置摄像头并辅以其他处理设备,从而可以使得每一辆公交车成为了一个流动的监控设备。

 

3 计算机视觉在条形码检测中的应用

 

条形码是将宽度不等的多个黑条和空白,按照一定的编码规则排列,用以表达一组信息的图形标识符。在中国,由中国物品编码中心赋予制造厂商代码。那么最常见的计算机视觉应用与条形码检测就是在超市中。超市中每样产品都有自己的条形码,当人们选择了自己需要的物品后,来到收银台进行结账,我们会看见收银人员会用扫码器对物品的条形码进行扫描,扫描后就会出现产品的信息及价钱。记录以及扫描条形码的技术就是计算机视觉技术。

 

4 计算机视觉重要技术——智能识别

 

近年来,基于生物特征的鉴别技术得到了广泛重视,主要集中在对人脸、虹膜、指纹、声音等特征上,这其中大多都与视觉信息有关。指纹、人脸功能已经大范围在生活中应用,其中很多单位的打卡制度就是依据面部识别、指纹识别来实现的。社会飞速发展的今天,很多的单位都实行了上下班打卡制度,这一制度已经被作为单位管理制度中的重要一条。购买的打卡机就是采用计算机视觉的重要技术——智能识别来实现的。利用打卡机的储存功能,记录每个职工的指纹或面部容貌,规定在某一个时间范围内对应识别指纹或面部容貌,视为打卡。在上下班打卡的过程中,员工将面部或指纹对应在打卡机的制定位置上,让打卡机进行识别,当识别的结果与存储结果相同时,打卡成功。这样看起来十分简单的打卡机可以使单位的工作有序化,制度化,而实现这个功能的技术就是计算机视觉技术中的重要技术之一:智能识别。

 

5 计算机视觉技术的发展过程及未来

 

计算机视觉技术研究经历了近40年的过程,20世纪50年代的统计模式识别、60年代的Roberts的三围积木世界、70年代的Marr为代表的计算理论、80年代的主动视觉,但是仍然面临许多的问题。主要由于计算机视觉是一个逆问题,视觉信息多种多样,视觉知识的表达很困难,图像数据量巨大,信息存储于检索困难,对生物学、神经生物学等的研究有待深入。

 

计算机视觉技术的未来必定会朝着高科技发展,航空遥感测控地形地貌、电影特效制作、工业生产自动化检测、医学影像检测,再到天文领域等,在这些科学领域中计算机视觉将无法取代,成为主流的技术之一。

 

作者简介

计算机视觉理论与方法范文第3篇

关键词:计算机;视觉技术;交通工程

中图分类号:TP391 文献标识码:A 文章编号:1674-7712 (2014) 04-0000-01

一、引言

随着科技的发展,计算机替代人的视觉与思维已经成为现实,这也是计算机视觉的突出显现。那么在物体图像中识别物体并作进一步处理,是客观世界的主观反应。在数字化图像中,我们可以探寻出较为固定的数字联系,在物体特征搜集并处理时做到二次实现。这既是对物体特征的外在显现与描绘,更是对其定量信息的标定。从交通工程领域的角度来看,该种技术一般应用在交管及安全方面。监控交通流、识别车况及高速收费都是属于交通管理的范畴;而对交通重大事件的勘察及甄别则是交通安全所属。在这个基础上,笔者对计算机视觉系统的组成及原理进行了分析,并形成视觉处理相关技术研究。

二、设计计算机视觉系统构成

计算机视觉处理技术的应用是建立在视觉系统的建立基础上的。其内部主要的构成是计算机光源、光电转换相关器件及图像采集卡等元件。

(一)照明条件的设计。在测量物体的表征时,环境的创设是图像分析处理的前提,其主要通过光线反射将影像投射到光电传感器上。故而要想获得清晰图像离不开照明条件的选择。在设计照明条件时,我们通常会视具体而不同处理,不过总的目标是一定的,那就是要利于处理图像及对其进行提取分析。在照明条件的设定中,主动视觉系统结构光是较为典型的范例。

(二)数据采集的处理。如今电耦合器件(CCD)中,摄像机及光电传感器较为常见。它们输出形成的影像均为模拟化的电子信号。在此基础上,A模式与D模式的相互对接更能够让信号进入计算机并达到数字处理标准,最后再量化入计算机系统处理范围。客观物体色彩的不同,也就造就了色彩带给人信息的差异。一般地黑白图像是单色摄像机输入的结果;彩色图像则需要彩色相机来实现。其过程为:彩色模拟信号解码为RGB单独信号,并单独A/D转换,输出后借助色彩查找表来显示相应色彩。每幅图像一旦经过数字处理就会形成点阵,并将n个信息浓缩于每点中。彩色获得的图像在16比特,而黑白所获黑白灰图像则仅有8比特。故而从信息采集量上来看,彩色的图像采集分析更为繁复些。不过黑白跟灰度图像也基本适应于基础信息的特征分析。相机数量及研究技法的角度,则有三个分类:“单目视觉”、“双目”及“三目”立体视觉。

三、研究与应用计算机视觉处理技术

从对图像进行编辑的过程可以看出,计算机视觉处理技术在物体成像及计算后会在灰度阵列中参杂无效信息群,使得信息存在遗失风险。成像的噪声在一定程度上也对获取有效信息造成了干扰。故而,处理图像必须要有前提地预设分析,还原图像本相,从而消去噪音。边缘增强在特定的图像变化程度中,其起到的是对特征方法的削减。基于二值化,分割图像才能够进一步开展。对于物体的检测多借助某个范围来达到目的。识别和测算物体一般总是靠对特征的甄别来完成的。

四、分析处理三维物体技术

物体外轮扩线及表面对应位置的限定下,物体性质的外在表现则是其形状。三维物体从内含性质上来看也有体现,如通过其内含性质所变现出来的表层构造及边界划定等等。故而在确定图像特征方面,物体的三维形态是最常用的处理技术。检测三维物体形状及分析距离从计算机视觉技术角度来看,渠道很多,其原理主要是借助光源特性在图像输入时的显现来实现的。其类别有主动与被动两类。借助自然光照来对图像获取并挖掘深入信息的技术叫做被动测距;主动测距的光源条件则是利用人为设置的,其信息也是图像在经过测算分析时得到的。被动测距的主要用途体现在军工业保密及限制环境中,而普通建筑行业则主要利用主动测距。特别是较小尺寸物体的测算,以及拥有抗干扰及其他非接触测距环境。

(一)主动测距技术。主动测距,主要是指光源条件是在人为创设环境中满足的,且从景物外像得到相关点化信息,可以适当显示图像大概并进行初步分析处理,以对计算适应功率及信息测算程度形成水平提高。从技术种类上说,主动测距技术可分为雷达取像、几何光学聚焦、图像干扰及衍射等。除了结构光法外的测量方法均为基于物理成像,并搜集所成图像,并得到特殊物理特征图像。从不同的研究环境到条件所涉,以结构光法测量作为主要技术的工程需求较为普遍,其原理为:首先在光源的设计上由人为来进行环境考虑测算,再从其中获取较为全面的离散点化信息。在离散处理后,此类图像已经形成了较多的物体真是特征表象。在此基础上,信息需要不断简化与甄别、压缩。如果分析整个物体特征信息链,则后期主要体现在对于数据的简化分析。如今人们已经把研究的目光转向了结构光测量方法的应用,体现在物体形状检测等方面。

(二)被动测距技术。被动测距,对光照条件的选择具有局限性,其主要通过对于自然光的覆盖得以实现。它在图像原始信息处理及分析匹配方面技术指向较为突出。也通过此三维物体之形状及周围环境深度均被显露。在图像原始信息基础上的应用计算,其与结构光等相比繁杂程度较高。分析物体三维特性,着重从立体视觉内涵入手,适应物体自身特点而存在。不过相对来说获得图像特征才是其适应匹配的条件保障。点、线、区域及结构纹理等是物象特征的主体形式。其中物特较为基础与原始的特征是前两个特征,同时它们也是其他相关表征的前提。计算机系统技术测量基本原理为对摄像机进行构建分析,并对其图像表征进行特征匹配,以得到图像不同区间的视觉差异。

五、结束语

通过对计算机视觉技术的研究,悉知其主要的应用领域及技术组成。在系统使用的基础上深入设计,对系统主要构成环节进行分析。从而将三维复杂形态原理、算法及测量理论上升到实际应用。随着社会对于计算机的倚赖程度增加,相信该技术在建筑或者其他领域会有更加深入的研究及应用。

参考文献:

[1]段里仁.智能交通系境在我国道路空通管理中的应用[J].北方工业时报,2012(06).

[2]王丰元.计算机视觉在建筑区间的应用实例分析[J].河北电力学报,2011(04).

计算机视觉理论与方法范文第4篇

关键词:计算机视觉;地图匹配;SLAM;机器人导航;路径规划

1概述

计算机视觉在人工智能学科占据重要地位,为自主移动机器人视觉导航做了深厚的理论铺垫。目前,机器人导航技术有很多种,传感器导航技术如里程计、激光雷达、超声波、红外线、微波雷达、陀螺仪、指南针、速度、加速度计或触觉等得到了普遍应用,与上述非计算机视觉导航技术相比较,计算机视觉导航技术如人眼般具有灵敏度高且可捕获的信息量大以及成本低等优点。由于室内相对室外空间比较狭小且内部环境复杂,所以普通移动机器人在作业过程中,完成躲避眼前障碍物、自主导航以及为自身找出一条可行路径等一系列操作会相对比较困难。计算机视觉导航技术可利用本身的摄像头获得室内周围的环境信息,实时对其周身的场景进行快速反馈,对视野前方障碍物进行快速识别和检测,从而确定一条高效的可行的安全路径。本文对计算机视觉导航技术进行分类研究,主要分为3类:第一类是环境地图事先已知,提前对外界环境特征进行提取和处理,建立全局地图,并将地图信息存储在机器人内存数据库中,在导航的时候实时进行地图匹配;第二类是同时定位与地图构建,移动机器人在自身位置不确定的情况下根据自身的摄像头获取周围未知环境信息,在作业时逐步构建周围的环境地图,根据构建的增量式地图自主实时定位和导航;第三类是不依赖环境地图,自主移动机器人不需要依赖任何的环境地图,其在作业活动时的可行区域主要取决于摄像头实时识别和检测的环境相对信息。

2环境地图的表示方法

目前,计算机视觉导航技术多采用栅格地图、几何地图、拓扑地图和混合地图构建环境地图信息。

2.1栅格地图

栅格地图,将栅格图像考虑为一矩形,均分为一系列栅格单元,将每个栅格单元赋予一个平均概率值,并利用传感信息估计每个单元内部内存障碍物的概率。构建栅格地图的优点是其地图表达形式直观,创建和维护比较容易;但当划分的栅格单元数量不断增多时,实时性就会慢慢变差;当划分的栅格单元越大时,环境地图的分辨率越低。

2.2几何地图

几何地图利用几何特征如点、直线、平面等来构成环境主要框架,需要知道这些特征在环境中信息的具置,所以几何地图通常使用其对应的三维空间坐标来表示。几何地图构建过程相对简单,保留了室内环境的各种重要信息,是基于计算机视觉的定位与地图构建算法中最常用的一种表示方式。但是为了完成环境的建模需要标记大量的特征,从而计算量也非常的大,降低了实时性,其重建的地图也容易出现与全局不一致的情况。

2.3拓扑地图

拓扑地图用许多节点和连接这些节点的曲线来表示环境信息。其中,每个节点相对应真实环境中的特征点(如门角、窗户、椅子、桌子角及拐角等),而节点之间的曲线表示两个节点对应的地点是相联通的。拓扑地图把环境信息表上在一线图上,不需要精确表示不同节点间的地理位置关系,图像较为抽象,表示起来方便且简单。机器人首先识别这些节点进而根据识别的节点选择节点与节点间的曲线作为可作业的路径。

2.4混合地图

混合地图主要包括3种形式:栅格一几何地图、几何一拓扑地图以及栅格一拓扑地图。混合地图采用多种地图表示,可结合多种地图的优势,与单一的地图表示相比更具有灵活性、准确性和鲁棒性,但其不同类别的地图结合起来管理会比较复杂,难以协调,增加了地图构建的难度。文献针对室内环境所建立的模型分为全局拓扑和局部几何表述部分,整体环境通过拓扑节点串连起来,维护了整体环境表述的全局一致性;而以每个拓扑节点为核心所采用的几何表述则可确保局部精确定位的实现,这样建立的几何一拓扑混合环境模型可将二者的优势都表现出来,使得移动机器人定位和地图构建同时进行,实现容易。

3基于计算机视觉的室内导航

基于计算机视觉的室内导航技术可利用摄像头捕获机器人周围环境的全部信息,对其周身的场景进行反馈,对障碍物进行快速识别和检测,从而确定一条高效的可行的安全路径。本文将计算机视觉室内导航技术主要分为3类:第一类是环境地图事先已知;第二类是定位与地图构建同时进行;第三类是不依赖环境地图。

3.1环境地图事先已知

提前对外界环境特征进行提取和处理,建立全局地图,并将地图信息存储在机器人内存数据库中,在导航的时候实时进行地图匹配,即预存环境地图。在环境地图事先已知的导航中,路标信息保存在计算机内存的数据库中,视觉系统中心利用图像特征直接或间接向移动机器人提供一系列路标信息,一旦路标被确定后,通过匹配观察到的图像和所期望图像,机器人借助地图实现自身精确定位和导航。该导航技术过程可分为以下步骤:

a)图像获取:摄像头获取其周围的视频图像;

b)路标识别及检测:利用相关图像处理算法对图像进行一系列预处理如进行边缘检测和提取、平滑、滤波、区域分割;

c)路标匹配标志:在观察到的图像和所期望图像之间进行匹配,搜索现有的路标数据库进行标志路标;

d)位置计算:当有特征点进行匹配时,视觉系统会根据数据库中的路标位置进行自身精确定位和导航。

在基于计算机视觉的地图匹配定位过程中,主要有2种地图匹配较为典型。

①已知起点,已知地图。这种条件下的定位称为局部定位,采用的是一种相对定位的方法,如图1所示为其位姿估计过程,这种情况目前导航技术研究得最多。

②不知起点,已知地图。这种条件下的定位称为全局定位。当机器人需要重置时,通常使用这种定位方法来检索机器人的当前位置(即姿态初始化)。常用的辅助方法是在环境中添加一些人造信标,如无线收发器,几何信标,条码技术,红外或超声波接收系统进行位置识别,利用视觉系统识别自然标志,自主定位。

3.2定位与地图构建同时进行

不知起点,不知地图。SLAM技术最早由Smith等人于1986年提出,移动机器人在自身位置不确定的情况下根据自身的摄像头获取周围未知环境信息,在作业时逐步构建周围的环境地图,根据构建的增量式地图自主实时定位和导航。在日后的导航研究中,混合地图中的几何一拓扑混合环境模型被得到广泛应用,主要用来解决SLAM问题。

2003年,在解决SLAM技术难题上,Arras等人采用基于Kalman滤波器和最邻近(nearest neighbor)匹配策略的随机地图创建方法。下面是该算法步骤:

a)数据采集:首先初始化系统,从摄像头传感器采集距离数据;

b)状态预测:视觉系统预测机器人运动状态,实时返回新位姿信息和协方差矩阵,预测地图;

c)观测:从原始捕获的信息中提取主要特征信息并将此信息返回给局部地图;

d)测量预测:预测机器人当前位姿的全局地图;

e)位置匹配:应用最邻近滤波器匹配局部地图中的观测点和预测点;

f)估计:使用扩展Kalman滤波器更新地图;

g)创建:将非相关的观测点加入地图,对机器人返回增量式地图;

h)输出地图。

制约机器人视觉系统性能的重要因素是信息实时处理的计算复杂度和处理效率,SLAM算法需要在地图密度与计算效率之间取得权衡。

3.3无环境地图

在这类系统中,机器人不需要依赖任何的环境地图信息,机器人的活动取决于其当时识别和提取出来的环境信息,这些环境信息可能是桌子、椅子和门等,不需要知道这些环境元素的绝对位置。无环境地图的导航技术典型的技术有3大类:基于光流的导航技术、基于外观信息的导航技术、基于目标识别的导航技术和基于目标跟踪的导航技术。

3.3.1基于光流的导航技术

光流是三维空间运动物体在观测成像面上的像素运动的瞬时速度,也是图像亮度的运动信息描述。光流法计算最初是由Horn和Schunck于1981年提出的,其利用二维速度场与灰度,引入光流约束方程,得到光流计算的基本算法。光流计算基于物体移动的光学特性提出了2个假设:①运动物体的灰度在很短的间隔时间内保持不变;②给定邻域内的速度向量场变化是缓慢的。如Santos-Victor等人研发了一种基于光流的robee视觉系统,该系统模拟了蜜蜂的视觉行为。在robee视觉系统中,使用单独的双目视觉方法来模拟蜜蜂的中心反射(Centering Reflex):当机器人移动到走廊两侧的墙壁中心时,左眼捕获场景的瞬时速度与右眼捕获场景的瞬时速度是相同的,几乎没有差别,那么机器人就可以知道他们在走廊的中心。如果眼睛两侧的眼睛的瞬时变化速度不同,则机器人移动到较慢的速度。在自动机器人导航的实现中,基于这个想法是测量摄像机捕获图像场景瞬时速度差异。这种导航技术只能用于室内单通道直走道导航,不能引导机器人改变方向,具有一定的局限性。

3.3.2基于外观信息的导航技术

基于外观的机器人导航方法,不需要构建真实的地图导航,机器人通过自身所携带的摄像头和传感器感知周围目标的外观信息进行自主定位和导航。其中,所述的外观信息多为目标信息的颜色、亮度、形状、空间大小和物理纹路等。机器人在导航时存储连续视频帧的环境图像信息,并将连续视频帧与控制指令相关联,从而再执行指令规划有效路径到达目的地。

3.3.3基于目标识别导航技术

为了达到目标点或是识别目标,机器人很多时候只能获取少量的图像信息。Kim等人提出了一种用符号代替导航各个位置的赋值方法。该赋值方法中,机器人执行命令如“去窗边”“去你后面的椅子旁”等。这样,通过相关的符号命令,机器人自动识别并建立路标,通过符号指令到达目标点。例如“去你后面的椅子旁”,这样的命令就是告诉机器人路标是椅子、路径向后。该导航技术的难点在于目标是否可以准确实时识别路标。第一,识别大量不同类别的物体,室内环境有许多不同类别的物体,需要将它们组织到一个在给定的容易搜索图像数据结构中去,起到容易识别是用什么度量来区分物体;第二,识别大量不同背景下的物体,一个合适的物体表达式有助于将图像组织成片断,而这些片断来自于物体的种类且与物体无关的;第三,在抽象层次上识别物体,机器人可以不需要在看到一个具体的杯子之前便能知道它是一个杯子,相关程序能够类似的物体进行识别和区分。

3.3.4基于目标跟踪的导航技术

基于目标跟踪的导航技术,为机器人构造一个虚拟地图,机器人通过摄像头获取连续的视频序定一个跟踪的目标,为了达到对目标的精确定位和实时跟踪,可以利用粒子滤波算法对需要跟踪的目标进行建模。基于粒子滤波的目标跟踪主要包含四个阶段,分别是初始化目标区域,概率转移,目标区域权重计算,目标区域重采样。在机器人导航之前,通过视频序列的当前几帧标注机器人所需要跟踪的目标,在导航时,机器人通过连续的视频帧感知周围的待跟踪目标,同时对所需要跟踪的目标散播粒子,当获取的视频帧对目标区域重采样后足以让机器人确定所需要跟踪的目标时,机器人通过确定的目标为自己规划最有效的路径到达目的地。获取视频序列目标跟踪是算机视觉领域中的重要分支,它在工业生产、交通导航、国防建设、航空导航等各个领域有着广泛的应用。

计算机视觉理论与方法范文第5篇

【关键词】虚拟多传感器;计算机;视觉检测

一、视觉信息系统模型与实现方法

对于一个通用视觉系统来说,其性能主要取决于两方面的因素:一方面总体上是如何组织的,有哪些模块组成,模块间如何联系;另一方面是每个模块内采用了哪些技术,信息如何被加工的。许多专用的视觉信息系统模型是一种松散的知识库模型。这些以松散的知识库为主的模型都各有特点,但共同的不足就是计算量特别大,对信息处理采取不同的抽象和表达,复杂度也不断增大,难以满足连续工业在线快速检测的要求。针对这些不足,本文提出一种专用的有知识驱动、信息融合的视觉信息系统模型,该模型实现了对图像中被检测目标个数的搜索,用以实现螺纹钢支数工业计算机视觉系统的在线检测。具体实现过程为:

1.训练匹配器模板:用上文提供的方法获取标准匹配器模板。

2.获取特征图:将实时图像灰度图分别用Cnany边缘算子、邻域平均值算子进行变换获得相应的特征图。

3.搜索特征量并确定其基本信度:将上述特征图和灰度图在相同的位置同时扫描,获得相应的特征,根据特征量得到相应检测目标的基本信度。

4.确定模板匹配相似度:利用匹配技术确定匹配器模板和指定区域的相似度及基本信度。

5.合成基本信度并作出判断:权系数D-S证据融合算法计算最终的信度,根据结果判断该区域有无被测目标。

6.优化屏蔽搜索区域:屏蔽搜索到被测目标的区域,避免重复搜索。

7.获得被测目标总支数:依次搜索特征图像,累加有被测目标的总数,即得到原始实时图像中的被测目标总支数。

二、证据理论应用举例

为了说明检测过程,考虑对两个典型区域的检测过程进行说明,其中一个为有检测目标的区域,一个为没有检测目标的区域。在应用过程中,已经训练获得到了匹配器标准模板。对一幅实时图像,分别用Cnany边缘算子和空间均值滤波等变换得到到相应的边缘特征图像和去噪声特征图像,原始图像也作为一个特征图像。用C表示目标,N表示非目标,目标识别框架为U={C,N}。具体实现步骤如下:

(1)传感器基本信度分配确定;

(2)计算加权后各个传感器的基本信度分配;

(3)按照DenlPster组合公式将m1:和m2组合;

(4)将m1:和.m2组合。

由计算结果可知,通过融合后不确定性的基本信度下降到0,在实际应用中,该值可能会大些,在应用中隐含地引入了一个限制条件,即mU(<)0.02时本次决策才有效。采用基本信度分配进行决策,根据公式,即y(x)=m(A)-m_ThV可知,给定阀值m_ThV时,可以根据融合结果确定出被检测区域的类别。在实际应用中,给定经验阀值m_ThV=0.89,则对区域1有y(x)=0.997-0.8>0,可确定出区域1中存在检测目标;而对区域2有y(x)=0.292-0.89<0,故区域2尽管有些特征类似于检测目标端面(如模板匹配程度、区域灰度均值等),但通过融合可以明显地区分出来该区域不存在检测目标。

三、优化屏蔽搜索区域

为了提高搜索效率,避免重复搜索,当确定出所搜索的区域存在被测目标时,如图1中区域1,可以根据所搜索的被测目标直径,计算该截面上的边界,推导出与这些边界相切的另外可能存在的被测目标的模板顶点的轨迹:(x-s)2+(y-t)2=D2口。其中(s,t)为当前模板覆盖区域的顶点坐标,D为被测目标截面半径,(x,y)为另外被测目标截面上覆盖的模板顶点坐标。然后该圆下半部分以点(s,t)为中心垂直分割,其左半部分圆内与半圆的交集部分)全部屏蔽,作为不再搜索区域;右半部分圆内(半圆与区域1的交集部分)给出特殊标志,表示此区域不再作为搜索区域顶点,但该区域的边界、灰度、灰度梯度等信息均保留,以免将有用信息屏蔽。在边缘特征图中,对区域2与半圆交集部分不再搜索支数;而对区域1与半圆交集部分,仅对该区域的特征信息完成搜索仍然需要搜索。

图1

四、试验与结果分析

为验证上述方法,进行了两个方面的试验。

首先是研究了方法的有效性。对于被测试的每一幅图的结果,用程序测试完后将结果同时显示到图像中,并在搜索到被测目标的区域用一个黑色圆标注,表示在该区域已经搜索到一个目标。这样可以完成搜索结果与被检测目标实际位置进行对比,可以判断算法实现、搜索结果的有效性。确定有没有误搜索:在没有目标的位置搜索的被测目标(虚检);而在有目标的地方又没有搜索的被测目标(漏检)。避免了搜索结果与目标真实数目一致而位置不符合实际的情况。并且,在搜索到的检测目标旁边标注浅灰色半圆,表示该区域已经在搜索过程中被屏蔽过。给出几幅对实时图像算法及搜索过程有效性验证结果的实际图像,图像中被测目标为中18的螺纹钢端面。

可见,该方法搜索的钢材在图像中的位置和支数都符合实际位置和支数,表明该方法是有效的。在端面特征中,选择用边缘特征、局部灰度均值特征、梯度分布特征和模板匹配器匹配程度特征等四个特征的信度分配来融合确定目标,实现对图像区域的分类,从而可以实现工业计算机视觉在线检测的任务。

然后用实际在线检测的方法试验所提出的方法的准确性。在实际应用中对φ20的成品钢进行了连续在线检测。系统的准确性还是比较高的,基本实现了在线快速的检测功能。

五、小结

本章通过对螺纹钢生产线上采集的实时图像的特征分析,提出了虚拟多传感器的概念,将实时图像用不同变换得到多幅特征图像,将每一幅特征图像在相同检测区域的特征信息看作是一种传感器获取的信息。这样,将实时图像中被测目标的识别问题归结为非线性二分类问题。利用虚拟多传感器信息,提出了基于加权D-S证据理论信息融合的模式分类方法,将该分类方法应用到计算机视觉检测中,在此基础上,提出了一种工业计算机视觉检测系统的实现方法。

在检测某一区域是否存在检测目标时,在特征图像中相应的区域根据获取特征信息,得到是否存在被测目标的基本信度分配,即:在边缘特征图像中对应的区域获得边缘信息、在去噪特征图像中对应的区域获得区域灰度均值信息和梯度分布信息、在原始图像中对应的区域获得与标准匹配模板相似度的信息;将这些信息量化成基本信度分配,用加权D-S证据理论融合这些基本信度分配;根据融合结果完成对区域分类,确定出是否有检测目标存在;历遍整幅图像即可得到图像中被测目标的总数。

将实现所提出的检测方法的应用程序及其系统应用的某炼钢厂进行了在线检测,结果表明,所研究的方法实现了在不增加传感器数量和对传感器要求的情况下使检测系统的可靠性时得到了保证,并得到了比较高的准确性。该方法的准确性可以达到97%。

参考文献

[1]张婷.计算机图形图像设计与视觉传达设计的研究[J].信息系统工程,2014(2).