实时视觉系统论文开题报告文献综述

实时视觉系统论文开题报告文献综述

导读:本文包含了实时视觉系统论文开题报告文献综述、选题提纲参考文献,主要关键词:视觉,实时,双目,系统,机器人,深度,目标。

实时视觉系统论文文献综述写法

胡磊力,张君昌,张亮中[1](2017)在《基于人类视觉系统的实时红外目标检测方法》一文中研究指出针对现有基于人类视觉系统红外目标检测方法存在的实时性问题,提出一种融合显着区域提取和局部对比度分析的红外目标检测新方法。首先,采用快速中值滤波和灰度合并得到二值图像并进行融合,以提高显着区域提取的精度;其次,对融合后的二值图像进行连通域分析,过滤连通区域过大和过小的区域,以减少后续检测方法的计算量;然后,在显着区域所对应的原图区域进行局部对比度分析,得到区域局部对比度图,并进行阈值分割得到弱小目标所在位置。理论分析和仿真结果表明该方法在保证检测性能的同时减少了数据运算量和储存量,提高系统的实时性。(本文来源于《西北工业大学学报》期刊2017年05期)

商海洋[2](2016)在《基于FPGA的实时双目立体视觉系统的设计与实现》一文中研究指出立体视觉技术是计算机视觉领域中非常重要的研究方向,其通过匹配一对不同视角的图像来提取现实场景中的深度信息,该技术在无人驾驶、无人机、虚拟现实、人机交互以及3DTV等领域广泛应用。在过去几十年中,提出了许多算法以及设计平台来提高系统的精确度与实时性,然而由于在获取立体视觉的深度信息时,其运算量巨大且算法复杂度较高,所以实时获得高质量的深度信息仍然具有较大的挑战性。本文主要提出了基于FPGA+ARM架构的实时双目立体视觉的软、硬件系统设计方案。根据系统方案要求,系统主要包括图像传感器视频的高速接收、极线几何校正、Census变换、半全局立体匹配算法、左右一致性校验以及中值滤波等关键模块。整个立体视觉的系统在单一的Xilinx ZC706开发板上实现,硬件平台以XC7Z045芯片为处理器核心,根据对系统软、硬件功能划分,PS(ARM)端主要是实现软件控制与算法的调试,PL(FPGA)端主要实现视觉算法的并行处理的硬件加速。根据系统支持不同的分辨率输出以及算法的配置模式,系统采用了模块化、参数化的设计思想。在系统设计过程中,摄像头采用APTINA的MT9V034,接口数据为高速LVDS串行传输,可以减少噪声等干扰;极线几何校正采用二元回归多项式方程来模拟矩阵相乘,减少两幅图像坐标存储,大大减少了片上硬件逻辑资源。多项式计算采用流水线技术,明显提高系统的工作频率;由于半全局立体匹配算法的复杂度以及对存储器的要求很高,本文采用有效的计算代价函数的方法,并简化为4个方向进行代价聚合,设计并行缓存器,降低对存储器的要求。中值滤波可以滤除误匹配点以及动态规划带来的条纹等问题。实验结果表明,本设计的系统可以达到视频的实时处理要求,图像的分辨率为640×480,最大视差搜索范围为64个像素,帧率60 fps。对于匹配算法模块的工作频率可以达到130 MHz,可以实现1280×1024@72.2 fps的实时视频处理。(本文来源于《哈尔滨工业大学》期刊2016-12-01)

张为[3](2016)在《实时双目立体视觉系统的设计与实现》一文中研究指出双目立体视觉系统是基于视差原理,采用标准的立体匹配算法来分析图像中研究对象的深度信息,从而达到对研究对象的3D重构、测量距离等功能。近年来立体视觉分析大部分是在改进前人的方案,同时产生了各种立体匹配构思。现在比较新的立体匹配方案的性能已经可以达到到预期的效果。但是大部分方案相当大的比例是采用程序来实现,很难达到实时处理的需求。随着图像技术的更新,双目立体视觉系统广泛采用硬件架构,但其硬件实现在分析精度和资源占用存在矛盾,一般来讲,复杂的算法需要占用相当多的硬件资源,一些新的算法通过硬件实现的途径是不适合的。基于以上原因,本课题依据已有的算法,产生了一个通过硬件芯片完成立体匹配的算法方案,具体方案是在整合像素差的绝对值之和“SAD”、“census转换”等代价算法进行处理代价初始化之后,通过运用动态规划“DP”的思路优化扫描线,以保证深度图的数据波动趋于平稳,同时滤除更多的噪点,然后借助背景删除、中值过滤等多种处理措施来优化深度图,这样既可以极大地提升视差图的效果,又可以保证处理速度。本课题同时为这个算法搭建了一个髙性能的硬件电路,并采用安富利的spartan6-150T图像开发工具连接日本安奇逻辑的自动调焦高清摄像设备PE1005S来实施。通过测试,这个方案只消耗了整个FPGA四分之一的硬件资源。数据结合已经获得的实验数据,本研究最高可以即时完成分辨率720P帧数大于60的深度图,这个优化在现有的硬件方式的方案中已经具有比较的性能,同时深度图的效果跟其它实现方式相比有很大的提升,由此可以知道它已经兼顾两个特点,分别是资源占用较少和分析精度较髙。虽然仍然有提升的空间,但是现有情况已经可以达到作为客流统计、手势识别等常规应用的产品开发的需求。本论文首先描述了双目立体视觉目前的发展情况,而后介绍了应用的几个算法原理,同时推理出本课题的设计原理,随后对使用方案的硬件系统进行了详解,最终经过所得数据进行全面的分析,证明了本系统是先进可靠的。(本文来源于《湖北工业大学》期刊2016-11-01)

冯佳乐[4](2016)在《面向非定常流场测量的实时超高速视觉系统设计与实现》一文中研究指出非定常流场具有运动速度实时变化、测量精度较低等特点,对非定常流场的动力学和运动学特性研究在导弹发射领域、高速列车动力学研究领域、水利工程领域等诸多领域都具有重要的意义。在流场测量技术中,PIV流场测量技术具有非接触式测量、全场测量和高精度的特点,成为非定常流场测量的重要研究手段。本文主要面向非定常流场精确测量,提出了流场测量实时调整机理,并基于该测量机理研制了一套超高速实时视觉系统。具体研究工作如下:(1)针对非定常流场速度实时变化的特性,提出了一种实时调整帧间间隔的流场测量机理。实时调整是指根据当前采集到的流场图像,实时计算出此时流场速度,并根据当前时刻速度预测下一时刻速度,实时调整流场图像的采集时间间隔;(2)研制了一套基于分光跨帧技术的超高速图像采集单元。该采集单元选用两个科学CMOS传感器作为感光器件,选用FPGA作为处理器,能够实现两个传感器的分时触发采集。分光跨帧技术使采集单元摆脱了传感器本身速度限制,从而实现更低的图像采集帧间间隔,且最高可在100万像素分辨率下达1000fps采集速度;(3)研制了一套基于分布式处理器架构的超高速图像处理单元。该处理单元组建了基于交换芯片的SRIO数据通信网络,通过SRIO数据交换网络,多个处理器可以实现复杂算法的任务分配和高速数据通信,实现了流场数据的实时处理和存储,为实时调整机理的实现提供了处理性能支持;(4)超高速图像采集单元和超高速图像处理单元组成了超高速实时视觉系统,进行系统测试,系统可实现20Hz流场图像的实时采集和处理。进行非定常流场实验,测量结果验证了超高速实时视觉系统和实时调整机理在非定常流场测量中的有效性和实用性。(本文来源于《华中科技大学》期刊2016-05-01)

张力,黄影平[5](2016)在《实时双目立体视觉系统的实现》一文中研究指出依据双目立体视觉原理,对双目立体视觉系统的设计与实现展开研究,介绍了双目立体视觉系统的组成,并对系统涉及的主要关键技术进行了探讨。结合相关的硬件设备,利用VS2012软件开发平台实现了双目立体视觉系统。该系统可实时地进行图像采集、边缘检测、立体匹配等功能,同时由于采用3种确认算法,最大限度地去除错误匹配,得到良好的视差图。(本文来源于《电子科技》期刊2016年03期)

田芳,彭彦昆[6](2016)在《生猪肉产量预测的非接触实时在线机器视觉系统》一文中研究指出为了准确估测生猪肉产量,该文提出了一种自动提取生猪活体特征的方法,建立了生猪肉产量预测算法。首先,基于自主研发的生猪肉产量预测的机器视觉系统装置实时采集54头活体大白猪的俯视图和侧视图,然后根据图像处理技术对所得的图像进行分析,提取生猪的体长、胸宽、臀宽、体高等体尺参数值;同时通过称量装置获得每头猪的活体质量。其次,将54头生猪样品按2∶1的比例分为校正集和验证集,基于体长、胸宽、臀宽、体高和体质量5个特征参数分别利用多元线性回归法(multiple linear regression,MLR)和偏最小二乘回归法(partial least-squares regression,PLSR)建立不同的肉产量预测模型,通过比较各预测模型的估测精度、相关系数等,确定最佳预测模型。分析结果表明,5个参数中体质量对肉产量预测的权重最大;偏最小二乘回归方法的预测结果较好,最佳预测模型的预测相关系数为0.95,预测误差为3.09 kg。试验结果证实,在检测系统中使用基于生猪的体尺参数和体质量建立的偏最小二乘回归预测模型可快速准确预测生猪肉产量,适于实际生产应用。(本文来源于《农业工程学报》期刊2016年02期)

李大锦,白成杰[7](2015)在《实时立体视觉系统中的深度映射》一文中研究指出目的为减少立体图像中由于水平视差过大引起的视觉疲劳。针对实时渲染的立体视觉系统,给出了一种非均匀深度压缩方法。方法该方法在单一相机空间内,通过不同的投影变换矩阵生成双眼图像,水平视差由投影变换来控制。为减少深度压缩造成的模型变形而带来的瑕疵,将不同深度区域内物体施以不同的压缩比例;将相机轴距表示为深度的连续函数,通过相机轴距推导出在单一相机空间内获取双眼图像的坐标变换,将深度压缩转换为模型的坐标变换,从而保证压缩比例的连续变化。结果实验结果表明,该方法能有效提高立体图像的质量。结论该方法简单、高效,可应用于游戏、虚拟现实等实时立体视觉系统。(本文来源于《中国图象图形学报》期刊2015年03期)

王培屹[8](2011)在《基于多传感器多目标实时跟踪视觉系统在全自主机器人上的应用》一文中研究指出视觉系统是全自主机器人的重要组成部分,而如何精确高效地处理视觉信息是视觉系统的关键问题。介绍了一种基于彩色图像的目标识别与定位及避障方法,对全自主机器人感知环节进行了研究.通过分析摄像头采集的图像,并借助碰撞传感器、红外传感器等方法确定目标。所提出的算法已在国内及国际比赛中应用,收到很好的效果。(本文来源于《软件导刊》期刊2011年01期)

王心焕[9](2011)在《基于FPGA的实时立体视觉系统研究》一文中研究指出立体视觉能够从同一场景不同视角拍摄的图像数据获得物体表面的深度信息,重建叁维场景结构,在无人驾驶车、星球车等智能移动机器上得到了广泛应用。尽管立体视觉的实时实现已发展成为立体视觉领域的研究热点,但多数实时立体视觉系统都是针对小分辨率图对(例如320×240)。本文基于单片现场可编程门阵列(FPGA)设计了一套立体视觉系统,实时实现了512×512分辨率图对的几何校正、Census局部变换以及相关匹配叁个算法流程。立体匹配是立体视觉系统中最耗时也是最耗资源的一步。由于区域匹配算法运算复杂度低,且易于采用硬件加速技术,所以实时立体视觉系统一般都采用区域匹配算法。本文提出了一种基于Census局部变换的非参数化匹配算法,不仅对亮度不均、噪声等情况具有很好的鲁棒性,而且只涉及比较、异或和累加运算,非常适合FPGA逻辑电路实现与加速。整个立体视觉系统的算法集中在立体视觉平台上实现。平台以Virtex5-LXT系列FPGA为处理核心,包括SRAM、Nand-Flash ROM、SDRAM以及FIFO四种存储控制器,采用SERDES接口下行输入左右视图原始数据,采用以太网接口上行输出匹配结果及相应视差值。在立体视觉算法的实现中,采用了乒乓结构、窗口数据缓存以及Box滤波等硬件加速方法来优化设计。为了提高实时性,系统充分利用FPGA并行计算结构和流水线技术,仅仅增加不到一半的硬件资源,而提升了近一倍的运算速度。对于左右一致性校验的流程进行了调整和优化,在一次相关运算中分别获得以左右视图为基准的匹配结果,以极低的资源代价实现了左右一致性校验,滤除了大量误匹配点。通过实验结果与性能分析,我们可以看出,对于分辨率为512×512的立体图对,仅采用40MHz的时钟频率,本系统就可以达到25fps以上的视频级处理速度,完全可以满足立体视觉对实时性的要求。(本文来源于《浙江大学》期刊2011-01-01)

唐晓英,应龙,刘伟峰[10](2010)在《激光治疗鲜红斑痣手术机器人双目视觉系统的实时立体匹配(英文)》一文中研究指出针对激光治疗鲜红斑痣手术机器人双目视觉系统在监测治疗区域的空间位置时立体匹配的实时性和准确性要求,提出了一种基于极线引导的立体匹配算法。采用基于角点的Hu矩匹配,计算双目视觉系统的基本矩阵。实验结果与计算结果相符。(本文来源于《Transactions of Nanjing University of Aeronautics & Astronautics》期刊2010年01期)

实时视觉系统论文开题报告范文

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

立体视觉技术是计算机视觉领域中非常重要的研究方向,其通过匹配一对不同视角的图像来提取现实场景中的深度信息,该技术在无人驾驶、无人机、虚拟现实、人机交互以及3DTV等领域广泛应用。在过去几十年中,提出了许多算法以及设计平台来提高系统的精确度与实时性,然而由于在获取立体视觉的深度信息时,其运算量巨大且算法复杂度较高,所以实时获得高质量的深度信息仍然具有较大的挑战性。本文主要提出了基于FPGA+ARM架构的实时双目立体视觉的软、硬件系统设计方案。根据系统方案要求,系统主要包括图像传感器视频的高速接收、极线几何校正、Census变换、半全局立体匹配算法、左右一致性校验以及中值滤波等关键模块。整个立体视觉的系统在单一的Xilinx ZC706开发板上实现,硬件平台以XC7Z045芯片为处理器核心,根据对系统软、硬件功能划分,PS(ARM)端主要是实现软件控制与算法的调试,PL(FPGA)端主要实现视觉算法的并行处理的硬件加速。根据系统支持不同的分辨率输出以及算法的配置模式,系统采用了模块化、参数化的设计思想。在系统设计过程中,摄像头采用APTINA的MT9V034,接口数据为高速LVDS串行传输,可以减少噪声等干扰;极线几何校正采用二元回归多项式方程来模拟矩阵相乘,减少两幅图像坐标存储,大大减少了片上硬件逻辑资源。多项式计算采用流水线技术,明显提高系统的工作频率;由于半全局立体匹配算法的复杂度以及对存储器的要求很高,本文采用有效的计算代价函数的方法,并简化为4个方向进行代价聚合,设计并行缓存器,降低对存储器的要求。中值滤波可以滤除误匹配点以及动态规划带来的条纹等问题。实验结果表明,本设计的系统可以达到视频的实时处理要求,图像的分辨率为640×480,最大视差搜索范围为64个像素,帧率60 fps。对于匹配算法模块的工作频率可以达到130 MHz,可以实现1280×1024@72.2 fps的实时视频处理。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

实时视觉系统论文参考文献

[1].胡磊力,张君昌,张亮中.基于人类视觉系统的实时红外目标检测方法[J].西北工业大学学报.2017

[2].商海洋.基于FPGA的实时双目立体视觉系统的设计与实现[D].哈尔滨工业大学.2016

[3].张为.实时双目立体视觉系统的设计与实现[D].湖北工业大学.2016

[4].冯佳乐.面向非定常流场测量的实时超高速视觉系统设计与实现[D].华中科技大学.2016

[5].张力,黄影平.实时双目立体视觉系统的实现[J].电子科技.2016

[6].田芳,彭彦昆.生猪肉产量预测的非接触实时在线机器视觉系统[J].农业工程学报.2016

[7].李大锦,白成杰.实时立体视觉系统中的深度映射[J].中国图象图形学报.2015

[8].王培屹.基于多传感器多目标实时跟踪视觉系统在全自主机器人上的应用[J].软件导刊.2011

[9].王心焕.基于FPGA的实时立体视觉系统研究[D].浙江大学.2011

[10].唐晓英,应龙,刘伟峰.激光治疗鲜红斑痣手术机器人双目视觉系统的实时立体匹配(英文)[J].TransactionsofNanjingUniversityofAeronautics&Astronautics.2010

标签:;  ;  ;  ;  ;  ;  ;  

实时视觉系统论文开题报告文献综述
下载Doc文档

猜你喜欢