一种使用多个特征向量的彩色图像检索方法

一种使用多个特征向量的彩色图像检索方法

一、一种利用多特征向量的彩色图像检索方法(论文文献综述)

谢浩哲[1](2021)在《多源多视的三维场景和物体重建》文中研究表明赋予机器像人类一样感知三维世界的能力一直是人工智能领域的一个长期研究的问题。受到人类认知方式的启发,本文展开了多源多视的三维场景和物体重建的研究。所提出的方法从大量样本中学习形状先验,因此甚至可以从单视角的彩色或者深度图像推测某个物体完整的三维结构。随着输入视图数量的增多,三维重建结果可以被不断改善。三维重建有许多潜在的应用,例如计算机辅助设计、混合现实、自动驾驶和机器人等。本文在分析了相关研究后发现,现有的三维重建方法主要存在三个问题:第一,这些方法需要扫描完整的物体才可以重建物体完整的三维结构,然而这在一些情况下是不可行的;第二,这些方法难以充分利用不同数据源和视角的数据,仅能从彩色或深度图像中重建三维结构,然而彩色图像的多视角特征匹配在弱纹理或重复纹理物体上会失败,深度图像也无法获取不发生反射物体的几何结构。第三,这些方法不考虑场景的语义信息,因此重建后的物体和背景融为一体,难以将物体从重建的场景中分离。本文针对上述问题,依次从单源单视三维物体重建、多源多视三维物体重建和多源多视三维场景重建三个层面展开研究。具体地,本文的研究内容和主要贡献分为以下三个方面:首先,为了解决现有方法无法恢复物体不可见部分三维结构的问题,本文针对单目彩色相机、双目彩色相机和深度相机从单视角拍摄的图像提出了三种几何结构感知的单源单视三维物体重建方法,利用已知的颜色或空间信息以及学习的几何先验推断物体未知部分的三维结构。对于单目彩色相机,本文提出了基于几何先验的三维物体重建方法,从大规模三维数据集中学习几何先验,隐式地建立图像空间和三维模型空间的映射关系;对于双目彩色相机,本文提出了基于深度感知的三维物体重建方法,利用双目视图估计物体的深度图,在恢复物体完整三维结构时更好地保留物体几何结构的细节;对于深度相机,本文提出了基于网格化残差网络的三维物体重建方法,将3D Grid作为几何结构的中间表示,使得在计算时充分利用上下文信息,同时更好地保留了深度相机所捕获的几何结构。在Shape Net、Pix3D和KITTI等数据集上的实验结果表明,所提出的这三个方法可以从单视角拍摄的图像中恢复某个物体的完整三维结构,其重建质量相比于现有方法有3%至18%不等的提升。其次,为了解决现有方法无法充分利用不同数据源和视角数据的问题,本文提出了多尺度上下文感知融合的多源多视三维物体重建方法,通过在三维模型空间融合多个彩色相机和深度相机的重建结果,使得不同数据源和视角的信息得以相互补充。一方面,不同模态的数据对于不同材质的物体具有不同的鲁棒性:对于弱纹理、重复纹理的物体,多视角彩色图像难以恢复其三维结构;对于不发生反射的物体,深度图像也无法获取其几何信息。另一方面,不同的视角可以观察到物体的不同部件,而往往可见部件的重建结果优于不可见部件的重建结果。利用这两个特性,本文提出了多尺度上下文感知融合,对来自不同数据源和不同视角重建结果中的每个部件的重建质量进行评估,从中选取重建质量最佳的部件生成最终的重建结果。在Shape Net、Pix3D和Things 3D数据集的实验结果表明,所提出的多尺度上下文感知融合不仅在重建质量上相比现有的方法有4%至20%不等的提升,而且拥有更好的可解释性。最后,为了使得场景中的物体可以直接从重建的场景中分离,本文提出了基于场景语义感知的多源多视三维场景重建方法,通过在重建时对场景进行语义建模,实现在重建场景的同时恢复场景中每个物体完整的三维结构。为了实现场景语义感知,本文提出了基于局部特征记忆网络的视频物体分割方法,该方法将场景中的物体从图像序列中分离,并更好地区分具有相似外观的物体。为了重建场景和其中的物体,本文设计了基于场景语义建模的三维场景重建方法,该方法通过重建每个物体的完整三维结构,并估计物体的位置和位姿,从而完成对三维场景的重建。在SUN3D数据集和实地拍摄的视频上的实验结果表明,所提出的基于场景语义感知的多源多视三维场景重建方法对场景和其中的物体能取得比现有方法更好的重建结果。通过上述研究,本文对三维场景和物体重建进行了深入的探索,并为真实场景的三维重建提供了切实可行的解决方案。本文从单源单视单物体三维重建问题出发,进而提出了针对多源多视单物体三维重建和多源多视多物体的三维重建方法。针对现有三维重建方法所存在的三个问题,本文所提出的方法在重建场景时对场景进行语义建模,使得场景中物体的三维结构可以被更完整地恢复和并更容易地分离;同时,该方法对弱纹理、重复纹理和不发生反射的物体更加鲁棒。

冯冠元[2](2019)在《基于室内三维稠密地图的视觉定位关键技术研究》文中研究指明近年来,随着无线通信技术的迅猛发展,用户对位置服务的需求也在不断增长。通过智能移动终端获取位置信息并为生活提供帮助,已经成为当下人们生活中不可或缺的一部分。基于位置信息的应用服务已经逐渐渗透到了生活中的各个领域,并表现出了良好的市场前景。然而,目前室内场景中的定位服务仍处于研究和开发阶段,大规模投入商业运营的室内定位系统并不多。定位精度较低以及定位成本较高是制约室内定位技术发展的主要原因。室内场景中的视觉定位由于其自身的技术特点,在实际应用中表现出了较高的定位精度和较低的定位成本,因此,近年来受到了越来越多的关注。通过分析视觉定位技术的国内外研究现状可知,已有的室内视觉定位系统存在以下几个问题:首先,视觉定位算法对三维稠密地图的精度要求较高,而目前并没有针对视觉定位需求而提出的高精度三维稠密地图创建算法;其次,在视觉定位过程中,利用已有算法进行数据库图像检索时,由于这些检索算法并没有针对数据库图像的特点进行优化和改进,因此,图像检索效率较低,图像检索的时间开销较大;最后,虽然可以通过不同的方法解决单目视觉定位中的尺度歧义问题,但是,这些方法在确定尺度系数的过程中,并没有充分考虑相机位置关系对尺度估计的影响。更重要的是,目前没有效的手段可以解决视觉定位过程中的累积误差问题。针对上述问题,本文的研究内容主要集中于以下三个方面:第一,针对三维稠密地图创建精度偏低的问题,本文提出了基于多源数据约束的三维稠密地图创建算法。在室内三维稠密地图创建中,为了使地图创建算法适用于不同的室内环境,本文算法利用二维点云、三维点云和视觉特征,并通过多维迭代最近点方法进行三维稠密地图的创建。同时,利用图像点优化函数和空间点优化函数将地图优化问题转化为多目标优化问题,并通过第二代非支配排序遗传算法对优化问题求取帕累托最优解,从而实现了三维稠密地图的局部优化。此外,本文算法还利用多源数据实现了相机轨迹的闭环检测,并在此基础上完成了地图的全局优化。与现有的地图创建算法相比,利用本文算法创建的三维稠密地图在相机位置精度方面和地图精度方面具有明显优势,即使在视觉特征密度较低的室内场景中,本文算法也表现出了良好的建图性能。第二,针对室内定位系统中图像检索时间开销过大的问题,本文提出了面向视觉定位的图像分层聚类检索算法。该算法首先在离线阶段对数据库图像进行分层聚类,然后,查询图像根据聚类结果对数据库图像进行分层检索。在同一场景中,数据库图像的视觉特征具有较高的相关性。因此,根据数据库图像的这一特点,本文提出了基于全局特征变点检测的图像聚类方法以及基于局部特征跟踪的图像聚类方法,并在此基础上构造了用于图像检索的搜索树,从而实现了查询图像对数据库图像的分层检索。此外,本文从理论上分析了分层图像检索算法的时间开销,并通过仿真实验证明了利用本文算法对数据库图像进行分层聚类后,图像检索效率明显提高。相比单层图像聚类检索算法以及其他多层图像聚类检索算法,本文算法在检索图像数目上具有明显优势。第三,针对单目相机位置估计中的尺度歧义和累积误差问题,本文提出了基于漂移检测的单目相机位置估计算法。该算法以室内三维稠密地图为基础,并充分考虑相机间相对位置关系对尺度估计的影响,提出了基于加权最小二乘的视觉定位尺度估计方法。此外,该算法中还提出了基于地图交互的相机位置漂移检测方法。该方法以相机与地图之间的信息交互为基础,通过线模型随机采样最大似然估计算法对相机的累积位置误差进行计算,从而实现了对相机的位置漂移检测。本文分析了相机绝对位置估计算法中可能存在的异常值,并给出了基于肖维勒准则的异常值剔除方法。此外,本文从理论上对相机位置估计算法的不确定度进行了分析。仿真实验结果表明,本文提出的尺度估计算法有助于提高相机的绝对位置估计精度,漂移检测算法可以实现对相机累积位置误差的估计,通过适时地切换定位方式,可以有效解决定视觉定位中的累积误差问题。

王军敏[3](2019)在《面向纹理图像识别的特征提取方法研究》文中研究指明纹理图像在现实世界中无处不在,纹理图像中所蕴含的纹理模式特征是人类认知世界所需的重要视觉特征,这使得纹理图像识别研究具有重要的理论和应用价值,而纹理图像特征提取是该研究的核心内容。但是,目前存在的纹理图像特征提取方法存在以下不足之处:(1)对纹理图像的光照、旋转、尺度变化和训练样本个数缺乏综合的稳健性;(2)不能同时获得较高的纹理识别精度和较高的实时性。针对以上问题,本文对纹理图像识别中的特征提取方法进行了深入研究,取得了以下的创新性成果。(1)提出了一种基于局部特征描述和纹理基元学习的纹理图像特征提取方法。该方法利用5个特征量(局部熵值、局部方差、局部最大变化幅度、局部差分符号计数、局部差分幅值计数)对局部潜在的纹理基元特征进行描述,并利用K均值聚类算法进行纹理基元字典学习。实验结果表明,该方法所采用的局部特征描述子具有很强的鉴别能力,并且特征维数低(7维),所需的纹理基元字典规模更小(仅为传统方法中纹理基元字典规模的1/2)。这使得该方法在纹理图像局部特征提取、纹理基元字典学习、纹理基元编码和特征匹配等阶段的实时性都得到显着提高,克服了传统纹理基元学习方法实时性较差的问题,同时在纹理识别精度上也超越了传统的纹理基元学习方法。(2)提出了一种将全局Gabor特征和局部编码Gabor特征进行融合的纹理图像特征提取方法。该方法首先利用采样和插值的方法为每个纹理图像构建一个四层的图像金字塔空间,然后利用多个尺度和方向的Gabor滤波器组对金字塔空间中的每个纹理图像进行滤波,用滤波后幅值图像的均值和方差作为全局Gabor特征,用滤波后幅值图像和相位图像的联合编码作为局部Gabor特征,并在最近子空间分类器的框架下实现了全局和局部Gabor特征的融合以及最终的纹理图像识别。实验结果表明,该方法提取的纹理图像特征具有很强的鉴别能力,在纹理识别精度上显着超越了传统的Gabor滤波方法,同时保持了较高的实时性,对纹理图像的尺度变化和训练样本个数也具有较好的稳健性。(3)提出了一种光照、旋转和尺度稳健的改进CLBP纹理图像特征提取方法。该方法利用局部模式主导方向的调谐作用,使传统的CLBP算法具有旋转不变性;利用连续的高斯滤波构造纹理图像的多尺度空间,并对不同尺度的联合直方图特征进行跨尺度取最大值,以使所提取的纹理特征具有对尺度变化的稳健性;利用多个半径的特征融合来捕获宏观和微观的纹理特征。实验结果表明,该方法提取的纹理图像特征具有很强的鉴别能力,在多个基准纹理库上都能获得很高的纹理识别精度,超越了目前很多先进的纹理识别算法。同时,该方法具有较高的实时性,对纹理图像的光照、旋转、尺度变化和训练样本个数也具有较好的稳健性,是一种综合性能较强的纹理图像特征提取方法。(4)提出了一种将粗略颜色信息和灰度纹理特征进行融合的彩色纹理图像特征提取方法。该方法利用纹理图像中的颜色信息具有低频性质并呈区域性分布的特点,对HSV空间中表示颜色信息的色调分量H和饱和度分量S采用粗略量化的策略,并用粗略量化后H分量和S分量的联合直方图来描述颜色信息,同时利用V分量进行灰度纹理特征的提取,最后将所提取的粗略颜色信息和灰度纹理特征进行融合,作为彩色纹理图像的特征描述。实验结果表明,与单独的灰度纹理特征和单独的颜色信息相比,该方法提取的彩色纹理图像特征具有更强的鉴别能力,能进一步提高纹理图像的识别精度,同时保持了较高的实时性,并在树皮分类、图像检索和纸币鉴别等工程领域获得了较好的应用效果。

万寿红[4](2014)在《多样例图像视觉注意建模及视觉显着性应用研究》文中研究表明随着图像获取设备及多媒体技术的快速发展,图像数据的规模与日俱增,视觉分析需要面对庞大的图像数据。虽然目前计算机具有强大的数据处理能力,但对图像的分析理解能力和人类视觉却相差甚远,这主要是因为图像底层特征到高层语义之间存在语义鸿沟以及用户的主观性问题。计算机在图像分析时没有按人类视觉注意过程来提取、分析和理解信息。人类视觉感知系统能从海量信息中选择相对重要的信息做出反应,这种选择性和主动性的生理和心理活动被称为视觉注意机制。通常一幅图像包含多种目标信息,而人类视觉感知系统可以从多幅样例图像中学习图像内容间的相关性,获取用户主观感兴趣目标。显然,将这种基于多样例图像的视觉注意机制引入到图像分析及处理领域,可以快速而准确地选择用户感兴趣区域,高效地完成视觉搜索任务,具有重要的研究意义。目前已有的视觉注意模型都是针对单样例图像,不具有从多样例图像中学习图像内容间的相关性,不能正确模拟人类主观视觉注意过程。因此针对此问题,本论文研究适用于多样例图像的视觉注意模型。论文首先针对多样例图像,提出一种基于多示例学习的视觉注意建模方法。从人类视觉感知特性出发,在现有视觉注意模型研究成果的基础上,研究图像视觉特征显着性度量方法、多样例图像特征显着度融合方法、显着对象提取方法,构建多样例图像视觉注意计算模型。同时,论文还针对视觉显着性在图像处理与分析领域中的应用展开了研究。在图像检索领域,面向单样例图像检索和多样例图像检索两种方式,分别提出了基于位面颜色显着性分布直方图的单样例图像检索方法以及基于显着对象的多样例图像检索方法。将视觉显着性引入到图像融合中,提出了一种基于小波域视觉显着性的图像融合新算法,以突出目标细节,使得融合效果更符合人类视觉特性,有利于后继的目标检测与识别。论文的主要贡献包括以下四个方面:(1)针对目前视觉注意模型提取的特征类型不够全面,抗噪性较差的问题,根据图像不同特征,分析人类视觉感知过程,将图像特征与人类视觉感知相结合,综合考虑心理学因素,提出基于视觉感知的图像特征显着性度量方法。该方法设计并提取主位面亮度特征、HSI空间颜色特征、Gabor方向特征和多方向纹理特征来模拟视觉刺激,相比已有的视觉注意模型在图像视觉特征描述上更全面细致,更符合人类视觉特点,同时提升了视觉特征的抗噪性。从自显着性、全局对比显着性、局部对比显着性以及稀疏性四方面度量不同视觉特征的显着性,设计了基于小波变换的局部对比显着性度量方法,使得特征显着性度量更符合人类视觉感知过程。(2)提出了基于多示例学习的多样例图像视觉注意模型,该模型通过分析多样例图像内容与视觉特征的相关性,设计基于多示例学习的特征选择、基于关注度的特征显着度融合算法,形成视觉综合显着度表征,根据综合显着度提取显着对象。特征显着度融合算法是将每个特征显着度对于视觉综合显着度的贡献分成特征与图像相关度、特征图自身突出度两部分,通过融合计算关注度,综合评估每个特征显着度对于综合视觉显着度的贡献,对各特征显着度图进行动态加权融合,得到最终的综合视觉显着图。同时提出了基于全局优化的模糊区域生长算法提取显着对象,避免了过度分割。与已有的视觉注意模型相比,提出的模型充分考虑了多样例图像内容的相关性,提高了显着对象的完整性,更好地反映了用户关注的目标内容,更接近于用户主观视觉注意过程。(3)将图像视觉显着性引入到基于内容的图像检索应用中,针对单样例图像检索和多样例图像检索两种方式,分别提出了基于位面颜色显着性分布直方图的单样例图像检索方法以及基于显着对象的多样例图像检索方法,去除图像中大量背景因素的影响,提高了图像检索的查准率。基于显着对象的多样例图像检索方法可以更好地反映用户关注的目标内容。(4)将图像视觉显着性引入到图像融合应用中,提出了一种基于小波域视觉显着性的图像融合新算法。该算法在小波多尺度分解的基础上,设计面向图像融合的视觉显着性模型,对不同频率分量分别融合亮度、方向、纹理多特征综合显着度,自适应求取加权融合系数。实验结果表明,与基于区域特征的小波融合算法相比,该算法无论在主观视觉效果还是客观评价上,目标细节更突出,融合效果更符合人类视觉特性,有利于目标的检测与识别。

肖锋[5](2012)在《基于古钱币图像识别与检索关键技术研究》文中进行了进一步梳理目前,基于内容的古钱币检索方法主要集中在利用神经网络对古钱币识别与检索,但是存在着神经网络模型难以确定、网络模型参数选择困难等问题,这方面的研究没有形成系统。因而,在梳理国内外相关文献以及系统分析已有的关键技术基础上,提出了小波变换与彩色图像的色彩空间相结合的彩色图像多尺度边缘检测模型,并基于此模型,构建了以古钱币图像多尺度特征为基础的图像识别与检索的方法体系,详细描述了图像降噪与细节增强,古钱币钱文的相近字的识别与分类,多尺度相对矩以及利用多尺度的局部特征进行古钱币识别与检索等方法,解决了基于内容的古钱币图像识别与检索有待于解决的关键问题。论文主要研究工作与贡献如下:1.建立了古钱币图像数据库,其中涵盖了已发掘出土的秦朝到清朝各时代极具代表性的古钱币图像信息,实现了对古钱币图像的各方面内容信息进行数字化存储与管理。采用递归方式定义数据库,简化了数据库表的设计。2.提出了小波变换与彩色图像的色彩空间相结合的彩色图像多尺度边缘检测模型,针对彩色图像进行多尺度的平滑,利用小波变换对彩色图像彩色分量滤波磨光输出,并对磨光后的图像进行向量扩展梯度,获得图像不同尺度下的边缘特征描述与表达。该算法能够提取在不同尺度下提取古钱币彩色图像由细到粗的轮廓边缘信息,便于古钱币图像分类与检索。3.为了解决彩色图像降噪和边缘细节保留的问题,提出了带细节增强与降噪的彩色图像多尺度边缘检测算法。根据改进的软阈值滤波函数,对得到的边缘图像进行阈值选择,降噪的同时也增强了保留的边缘细节信息,并对不同尺度边缘图像融合。该算法能有效地抑制噪声,并增强图像的细节信息。4.提出古钱币图像的多尺度相对矩检索方法。在不同尺度下提取相对矩特征,对特征向量归一化并进行相似性度量。该方法取得了良好的检索效果,具有很好的通用性和鲁棒性。5.钱文是古钱币识别过程中所处理最为重要的特征之一,为了解决古钱币钱文相近字识别的问题,提出了多尺度PCA和SVM相结合的古钱币钱文相近字的识别方法。利用所提取的多尺度边缘特征形成多个尺度的主成分与SVM相结合,对钱文中的相近字在不同尺度下进行比较;该方法能够对古钱币钱文中的相近字分类识别,并可以得到相近字之间分类识别的最佳尺度。6.鉴于出土古钱币往往存在磨损、锈迹等不同程度的残损,且所获得的古钱币图像有光照、尺度等不同,提出了一种KPCA与SIFT相结合的古钱币多尺度图像识别方法。利用局部特征的各种不变性特征,阐述了图像的KPCA-SIFT描述子与多尺度KPCA-SIFT描述子,融合不同尺度下的局部特征点,通过核主成分分析方法将局部特征描述子降维,利用多分辨率直方图算法对在加噪、旋转、比例尺度条件下的古钱币图像进行识别,实验结果表明,该算法获得了良好的识别效果。

张恒博[6](2008)在《基于内容的图像数据库检索的技术研究》文中研究表明图像数据检索是当今信息时代人们广泛关注的热点问题,主要包括对图像内容的描述、图像数据库管理、图像匹配等内容。本文从图像数据不同特性出发,讨论了基于视觉内容的图像检索方法,提出包括基于主色调多特征向量、综合灰度颜色和空间特征、综合颜色和纹理特征、基于形状特征等多种图像检索算法。随着图像数据库规模的越来越大,如何提高图像检索的效率已成为迫切研究的问题。颜色信息是图象中最为明显有区别性的信息,但采用单一的图像特征向量对图像数据库进行查询不能很好地解决查询中准确率和效率之间的矛盾关系。为此本文提出了一种利用多种特征向量的彩色图像检索方法。该方法基于HSV颜色模型提取示例图像的颜色特征与图像库中图像的颜色特征时,提取不同维数的特征向量。在图像匹配时对不同维数的特征向量采用不同的距离计算方法。并且通过设置阈值实现分层检索图像数据库。从而提高了图像检索的效率。由于颜色直方图只记录了全局的颜色统计信息,未包含颜色的空间分布信息并又混入了不感兴趣物体的颜色信息。针对上述的问题,本文提出一种综合图像的颜色信息、灰度信息和空间信息提取图像的特征向量的方法,首先将图像从RGB空间转化为HSV空间,并进行非均匀量化为32种代表色:其次将彩色转化为灰度图像:然后将图像划分成互有重叠的8块,分别求出每块图像的颜色直方图、灰度直方图;采用这16个直方图做为图像的特征向量对图像进行检索。纹理是图像的一个非常重要的特征,但是单纯依靠纹理特征进行图像检索,其应用范围较窄,还需综合考虑图像的颜色及其分布等其它视觉信息。本文提出一种结合图像颜色空间分布信息及其纹理特征的图像检索新方法。该方法基于图像的颜色连通区域,结合图像的颜色构成和分布信息,提取图像的多个颜色分量的共生基元矩阵纹理特征。然后,利用针对该特征的图像相似性度量函数实现基于内容的图像检索。基于形状的图像检索一直以来是图像内容检索的一个难点问题,本文提出了一种新的针对图像形状的检索方法。首先,用Canny算子对图像进行平滑处理,提取图像边界方向直方图特征。其次,用改进的不变矩来描述图像形状的区域特征,改进后的不变矩特征不受图像的缩放、平移和旋转的影响。最后,为了克服不变矩只关心对象区域,而对图像边界忽视的缺点,提出了改进的不变矩与边界方向特征相结合的方法,使得检索取得更好的效果。

谢光艺[7](2020)在《基于视觉特征提取的图像检索算法研究》文中进行了进一步梳理随着数字图像的快速和大规模增长,人们找到感兴趣的图像越发困难,这促使人们研究和开发有效的图像存储,索引和检索技术。图像检索和索引已被应用于许多领域,例如互联网、广告、艺术、建筑、教育、医疗、生物和其他许多行业。基于文本的图像检索首先以文本形式手工标记图像,然后使用关键字来检索图像。这种基于字符匹配程度的图像检索方法既主观又费时。基于内容的图像检索方法克服了基于文本方法的缺点,依据图像的视觉特征(颜色,纹理,形状等)在图像集中找到相似的图像(搜索范围)。本文针对图像检索的视觉特征提取的关键性问题,提出了彩色能量导向局部模式、稳定兴趣点区域、一致性区域内主颜色及胡矩,以及结合区域相关和方向相关描述符等算法进行图像检索,做了深入研究,取得的研究成果和创新如下:1.提出了彩色能量导向局部模式特征和直方图结合的图像检索算法。局部二值模式(Local Binary Patterns)是一种着名的表征图像纹理特征的算子,它和它派生的各种算子在图像检索中取得很好的效果,但它们基本上都是对彩色图像中的亮度单通道进行处理,没有利用彩色图像的颜色特征。本文针对彩色图像提出一种彩色能量导向局部模式(Local Color Energy Oriented Pattern),它基于彩色多通道,以彩色图像有限区域能量变化为导向,考虑图像中参考区域和它对应最大能量变化方向处目标区域中对应点处强度的关系,动态的表示图像局部纹理变化特征,较二值模式(LBP)等相应算子只是考虑局部邻域中心点和周围点强度的关系能够表现纹理的变化信息。再将彩色能量导向局部模式特征和图像颜色常用的直方图(Color Histogram)特征结合能更好的表征图像的特征信息。所提方法(LCEOPa CH)在corel-1k、corel-5k和corel-10k三个数据集上进行测试,实验结果表明优于当今的其它基于内容的图像检索方法。2.提出了稳定兴趣点区域图像检索算法。针对传统兴趣点检索方法中非感兴趣区域的兴趣点会降低检索准确率的不足,提出稳定兴趣点区域检索图像的新方法。首先检测查询图像和候选图像的兴趣点,提取其邻域灰度信息并计算伪泽尼克矩,通过比较距离找到最佳匹配点对。其次以匹配点对计算相应凸包区域以得到稳定的兴趣点区域。最后提取稳定兴趣点区域内图像颜色和Gabor小波变换纹理信息进行图像检索。实验结果表明所提算法去除了无关兴趣点的影响,克服了传统兴趣点算法只提取边缘局部特征的不足,与同类算法相比准确率明显提高。3.提出了一致性区域主颜色及胡矩图像检索算法。数量快速增长的数字图像需要有效的检索,主颜色描述符(Dominant Color Descriptor,DCD)在图像处理中已得到广泛使用。但是主颜色描述符考虑的是整幅图像上的所有像素点信息,从而影响了检索的准确率。根据基元理论(The texton theory),先采用基元模板检测提取出图像一致性区域内像素点的信息,并在此区域内的像素点上计算主颜色特征。然后再结合具有平移和旋转不变性的胡矩特征提取图像中的形状信息,从而达到有效结合颜色和形状信息进行图像检索。所提的算法在corel-1k、corel-5k和corel-10k三个数据集上进行测试,实验结果表明优于当今的基于内容的图像检索方法。4.提出了结合区域相关和方向相关描述符的图像检索算法。大量不断增长的数字图像需要有效地检索,但是在准确性和速度之间进行权衡是一个棘手的问题。通过结合区域相关和方向相关描述符(Combining Region and Orientation Correlation Descriptors,CROCD)提出了一种快捷有效的图像检索方法。区域颜色相关模式和方向颜色相关模式分别由区域相关描述符和方向相关描述符提取。然后分别从两个相关模式中提取图像的特征向量。该算法具有统计和纹理描述方法的优点,可以表示图像颜色和纹理在空间的相关性。对于全彩色图像,特征向量只有80维。因此,它在图像检索中非常高效。该算法在准确性和查全率方面在三个数据集上进行了的测试。实验结果表明,所提出的算法优于其他最新算法。

杨腾飞[8](2020)在《图像特征提取及其隐私保护研究》文中研究指明移动互联网的迅猛发展使得人们生活中的图像数量激增,如何更好的管理和利用这些图像成为一个重要问题。由于图像特征提取作为图像处理任务中的一个关键步骤能够从冗余的图像信息中提取作为判别与分析标准的主要特性,因此从图像中提取特征以挖掘并利用图像数据蕴含的重要信息是解决这个问题的有效方法。此外,为了解决其存储和计算负担,人们更愿意将大量图像存储到远程云服务器。然而,在享受便利的同时,将包含大量敏感信息的图像数据直接存储到云平台使得图像数据不再受图像拥有者的直接物理控制,对于图像拥有者来说,隐私和安全成为最重要的问题。为了解决隐私和安全问题,外包前加密是保护图像隐私的基本解决方案,但加密图像使得传统图像处理解决方案极为困难,特别是使得图像特征提取变得几乎不可能。此外,在将图像数据存储到第三方云平台的情况下,图像拥有者并不只是自己使用存储在云端的图像数据,可能需要和其他授权方共享图像数据。因此,在保证图像数据及其特征安全的情况下,利用图像特征实现图像的安全查询检索是一个具有挑战性的问题。针对上述问题,本文围绕图像特征提取及其隐私保护展开研究,文章的主要贡献如下:1.针对现有四元数矩在彩色图像重构和彩色目标识别中性能差的问题,本文提出了一种名为四元数加权球形Bessel-Fourier矩(QSBFM)的新的四元数圆型正交矩,以解决彩色图像处理,同时构造了一组对于旋转、尺度和翻转变换的不变量,并且建立了QSBFM与传统的加权球形Bessel-Fourier矩之间的关系,从而有效地降低了QSBFM的计算成本。此外,本文对QSBFM的性能及其不变性进行了广泛研究,并利用流行的彩色图像进行了大量实验以检验理论分析。本文将QSBFM与四元数Bessel-Fourier矩、四元数径项Harmonic-Fourier矩、四元数Chebyshev-Fourier矩和四元数正交Fourier-Mellin矩四种常用四元数矩在彩色图像重构、彩色目标识别(无噪、有噪和平滑失真条件下)、计算复杂度三个方面进行比较,从而为潜在用户提供有用的信息。2.针对现有的圆型正交矩特征的隐私保护特征提取问题,本文首先提出一种定义在整个极坐标系中的新的Legendre圆型正交矩(LCOM)。与典型的圆型正交矩相比,LCOM的性能更为突出,因为它没有几何误差。进一步地,本文提出了一种通过将LCOM与somewhat同态加密相结合来实现隐私保护Legendre圆型正交矩(PLCOM)的有效的方案以解决云计算环境下的隐私保护LCOM特征提取问题。而且,本文提供了有关LCOM的明文数据扩张的消息空间分析,以便在解密PLCOM之后可以获得正确的LCOM。安全性分析表明,PLCOM方案可以保证图像内容的安全。此外,实验结果显示,在参数设置正确的情况下,就图像重构能力和图像识别精度而言,PLCOM可以提供接近直接计算明文域中LCOM的性能。3.针对离散正交矩特征的隐私保护提取问题,本文以Krawtchouk矩特征为例提出一种利用Paillier密码系统实现隐私保护Krawtchouk矩(PPKM)的有效方案。另外,本文提供了有关Krawtchouk矩的消息空间和扩张因子的分析,以便可以通过解密PPKM来获得正确的Krawtchouk矩。进一步地,本文提出了一种基于块的并行算法来降低PPKM的计算复杂度。而且,提出的并行算法具有出色的加速效果和高的可扩展性。充分的安全性分析表明PPKM方案能够保证图像内容的安全。此外,实验结果表明,在参数设置正确的情况下,PPKM在图像重构能力和图像识别精度方面与明文Krawtchouk矩具有几乎相同的性能。4.针对加密图像检索方案中单密钥引起的密钥共享、检索精度差和对恶意用户的不可追踪性问题,本文利用VGG16卷积神经网络提出了一种多用户环境下可追踪的加密图像检索方案,称为MU-TEIR。与引起用户密钥共享问题的传统单密钥机制相比,MU-TEIR使用分布式双门限公钥密码系统技术提供一种多密钥机制,从而解决了多密钥环境下的授权问题。其次,与传统的有高的图像检索开销和差的检索精度的加密图像检索方案比较,MU-TEIR分别利用平方欧式距离的下界方法和VGG16卷积神经网络提取图像特征实现了更高的检索效率和更高的精度。再者,与无法惩罚发布盗版图像的恶意用户的传统方案相比,MU-TEIR巧妙地利用了一种加密图像水印方法来实现对恶意用户的追踪。

张文强[9](2019)在《基于深度学习的商品检测和识别研究》文中研究说明以计算机视觉技术为基础的商品检测和识别一直是近几年的研究热点,针对商品检测和识别的技术难点及其在商品结算的实际应用中的问题,本文展开了相关研究。商品包含的视觉信息较为复杂,多种信息彼此交叉重叠,单一的类别标签无法完整描述。例如,商品可以按个体类别的维度进行细分,也可以按种类的维度分为牛奶或饼干等标签,按品牌维度分为伊利或蒙牛等标签。因此,普遍存在多个商品在某个维度下有着不同的标签,而在其他维度下却有相同标签的情况。如果仅以某一维度下的标签引导神经网络模型进行训练,该模型将只能在该维度下学习如何提取商品的特征信息,而较难关注到其他维度下隐藏的特征信息。针对该问题,本文提出一种基于多属性联合的物体识别方法,该方法提取物体的多种属性特征并预测得到多个属性标签,这些特征经过拼接得到特征信息更加完备且互补的多属性联合特征,利用该特征可以得到更高的分类和检索准确率,而且以属性标签为索引字段可以建立一个更加高效的图像检索机制。现实中的商品都是以立体形式存在的,同一商品在不同视角下可能有着不同的形态,而不同商品在某个视角下形态却十分相似。对于不同视角形态差异较大的物体,单幅二维平面视图只能包含有限的视觉信息,仅基于商品的某个视图进行分类或检索将会得到较差的识别效果。针对这个问题,本文提出一种基于循环多视图的三维物体识别方法,设计了一个循环多视图网络(RMVNet),并设计了整流损失函数(RLF)来对模型的目标函数进行优化,在分类和检索问题上均获得了非常好的效果。另外,考虑到二维视图只是物体在某个视角下的平面投影而无法包含其表面各点的三维空间信息,本文还提出一种基于点云有序编码的三维物体识别方法,设计了对无序点云数据进行球面坐标和柱面坐标有序编码的两种方式,可以将无序稠密的点云数据转化为有序稀疏的多通道二维数据,处理后的数据可直接使用二维卷积操作,这种方法在三维物体分类和检索问题上同样取得了较好的效果。考虑到商品检测和识别在商品结算的实际场景中的应用,本文利用RGB-D传感器在传送带上采集图像,提出一种基于RGB-D信息的图像拼接及目标定位方法,用于完成商品的动态检测过程。在传送带运转的情况下,RGB-D传感器将采集到多幅连续的图像,拼接RGB图像可以得到每个商品的完整图像,并避免由于同一商品多次出现而重复识别的问题,而拼接深度图则可以补全单幅深度图中出现的信息盲区。利用拼接后的深度图像完成定位,并在拼接后的RGB图像中获得目标区域,可以实现快速精确的目标定位,为多商品识别过程提供支持。

周菊香[10](2019)在《图像检索中的特征表达和相似性度量方法研究》文中进行了进一步梳理伴随着互联网技术的迅猛发展和各类数码设备及嵌入式摄像头的普遍流行,网络上无处不在的视觉数据呈现出爆炸式的增长趋势,使得图像搜索和检索技术的研究越来越活跃,也让基于图像搜索的各类新兴应用看到了新的曙光。基于内容的图像检索(Content-based Image Retrieval,CBIR)利用视觉内容作为图像相似性排序的重要线索,有效地克服了基于文本的视觉信息检索中存在的文本与视觉内容不一致、查询意图解析能力弱、缺乏用户体验等方面的不足。近二十年来,CBIR 一直吸引着大量研究者的关注,尤其是随着深度学习技术在图像领域的成功应用,CBIR相关技术的研究充满了机遇和挑战。本文针对CBIR中的图像特征表达和相似性度量两个关键环节,围绕如何提取和表达图像视觉特征来尽可能地体现图像高层语义、如何对深度特征进行有效地聚合表达来增强特征的表达能力和可辩别能力、如何定义准确的图像相似性度量方法以体现图像语义相似性等问题展开研究。主要工作包括以下几个方面:(1)提出一种基于多特征表达和扩散过程重排序的图像检索方法,通过从图像特征表达和相似度度量的优化两个方面来提升图像检索性能。针对传统视觉特征的表达,设计了一种包含多个维度和不同抽象层次的视觉信息的特征表达方法,有效地将颜色、纹理、形状等多维度的传统视觉特征和视觉词包(Bag of Visual Words,BoVW)特征进行融合,从图像的全局和局部角度,通过将低层和中层特征的结合进一步增强图像特征的表达能力,有效地减缓了底层视觉与高层语义之间的差异;同时,在图像相似度匹配阶段引入基于上下文的扩散过程(Diffusion Process)对距离矩阵进行优化,并提出一种新的重排序方法,来改善扩散过程在检索返回图像较少时由于所捕获的图像数据内在流形结构不能准确刻画图像亲密关系的局限性,最终实现检索性能的整体提升。通过在多个基准图像数据集上的大量对比实验表明,多特征的融合和扩散过程重排序可以显着的提升检索性能,与当前多种图像检索方法相比,所提方法可以得到较高的检索准确率。(2)提出一种基于区域和通道加权深度聚合特征的图像检索方法。针对采用卷积神经网络(ConvolutionalNeural Networks,CNN)提取的深度图像特征,提出一种基于区域显着性和通道敏感性加权的深度特征聚合方法,来增强深度特征的特征描述能力和可辩别性,从而达到提升图像检索性能的目的。该方法有效利用多尺度的优势,并根据区域所包含的视觉内容的显着性差异赋予区域不同的重要性权重,同时针对不同通道的深度特征定义一种基于通道响应值的稀疏性和强度的通道敏感性权重,最后通过对多区域加权聚合形成最终的图像深度特征的表达。通过在Holidays、UBK、Oxford5k、Oxford105k、Paris6k 和 Paris106k 等多个基准图像集上的对比实验表明,所提方法仅采用预训练的VGG网络模型得到的poo15层深度特征,并且在不需要进行多次图像输入和网络微调的情况下,即可得到比当前一些基于深度特征的检索方法更高的检索性能。(3)提出一种基于图像语义特征和相似性度量的图像检索方法。不同于传统的基于全特征空间的图像特征表达和相似性度量方式,本方法通过引入公理模糊集(Axiomatic Fuzzy Set,AFS)理论,将原始特征空间映射到新的语义特征空间,并根据特征空间数据的分布和模糊语义为每个图像样本寻找最适合的语义描述,增强了图像特征的可辩别性,更好地体现了图像内在语义差异。同时,在此基础上本文定义了一种基于语义相似性的距离度量方法,能有效地克服传统的基于两两样本之间距离关系的相似度量方法的局限性。该方法考虑了两两图像之间以及它们的邻域图像之间的语义相似性,将原来的图像点对之间的相似性度量扩展到图像集合与集合之间的相似性度量,通过捕获潜在的数据稳定性结构,更准确地描述图像之间的相似性,进一步提升图像相似性关系描述的稳定性和鲁棒性。实验表明,基于语义相似度性量的检索方法在基于原始像素级灰度特征的人脸检索任务和基于CNN深度特征的自然图像检索任务中都有较好的表现。

二、一种利用多特征向量的彩色图像检索方法(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、一种利用多特征向量的彩色图像检索方法(论文提纲范文)

(1)多源多视的三维场景和物体重建(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究背景和意义
        1.1.1 研究背景
        1.1.2 研究意义
    1.2 研究现状与分析
        1.2.1 单视图三维物体重建
        1.2.2 多视图三维物体重建
        1.2.3 三维场景重建
        1.2.4 具有代表性的三维场景和物体重建的数据集
        1.2.5 现有方法的主要问题
    1.3 本文的主要研究内容与组织结构
        1.3.1 本文的研究内容
        1.3.2 本文的组织结构
第2章 几何结构感知单源单视彩色图像三维物体重建
    2.1 引言
    2.2 相关工作
    2.3 基于几何先验的单目彩色图像三维物体重建
        2.3.1 模型与方法
        2.3.2 实验结果与分析
    2.4 基于深度感知的双目彩色图像三维物体重建
        2.4.1 模型与方法
        2.4.2 实验结果与分析
    2.5 本章小结
第3章 几何结构感知单源单视深度图像三维物体重建
    3.1 引言
    3.2 相关工作
    3.3 基于网格化残差网络的单目深度图像三维物体重建
        3.3.1 模型与方法
        3.3.2 实验结果与分析
    3.4 本章小结
第4章 多尺度上下文感知融合多源多视三维物体重建
    4.1 引言
    4.2 相关工作
    4.3 多尺度上下文感知融合多源多视三维物体重建模型与方法
    4.4 实验结果与分析
    4.5 本章小结
第5章 基于场景语义感知的多源多视三维场景重建
    5.1 引言
    5.2 相关工作
        5.2.1 视频物体分割
        5.2.2 三维场景理解与重建
    5.3 基于局部特征记忆网络的视频物体分割
        5.3.1 模型与方法
        5.3.2 实验结果与分析
    5.4 基于场景语义建模的多源多视三维场景和物体重建
        5.4.1 模型与方法
        5.4.2 实验结果与分析
    5.5 本章小结
结论
参考文献
攻读博士学位期间发表的论文及其他成果
致谢
个人简历

(2)基于室内三维稠密地图的视觉定位关键技术研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 课题来源及研究的目的和意义
        1.1.1 研究背景与课题来源
        1.1.2 研究的目的和意义
    1.2 室内定位概述与视觉定位关键技术
        1.2.1 室内场景中的定位技术概述
        1.2.2 视觉定位关键技术及主要应用场景
    1.3 视觉定位关键技术国内外研究现状
        1.3.1 室内三维地图创建技术国内外研究现状
        1.3.2 基于内容的图像检索技术国内外研究现状
        1.3.3 单目视觉定位技术国内外研究现状
    1.4 学位论文的主要研究内容
第2章 视觉定位系统与相关理论概述
    2.1 引言
    2.2 视觉定位系统框架概述
    2.3 RGB-D相机模型与配准方法
        2.3.1 单目彩色相机模型
        2.3.2 深度相机数据采集原理
        2.3.3 RGB-D相机的配准方法
    2.4 图像特征提取方法
        2.4.1 图像全局特征提取方法
        2.4.2 图像局部特征提取方法
    2.5 视觉定位中相机位姿求解与优化算法
        2.5.1 三角测量与求解透视N点问题
        2.5.2 相机位姿图优化算法
        2.5.3 光束平差优化算法
    2.6 本章小结
第3章 基于多源数据约束的三维稠密地图创建算法
    3.1 引言
    3.2 基于多源数据约束的局部地图创建算法
        3.2.1 基于多维迭代最近点的相机位姿估计
        3.2.2 基于深度与视觉特征的局部地图优化
    3.3 基于闭环检测的全局地图优化算法
        3.3.1 用于闭环检测的图像关键帧选取
        3.3.2 闭环检测和全局地图优化
    3.4 仿真实验与结果分析
        3.4.1 局部地图创建仿真与结果分析
        3.4.2 全局地图创建仿真与结果分析
    3.5 本章小结
第4章 面向视觉定位的图像分层聚类检索算法
    4.1 引言
    4.2 基于全局特征变点检测的图像聚类算法
        4.2.1 Gist特征提取与特征预处理
        4.2.2 基于CUSUM变点检测的数据库图像聚类
    4.3 基于局部特征跟踪的图像聚类与分层检索算法
        4.3.1 基于KLT特征跟踪的数据库图像聚类
        4.3.2 搜索树构造与分层图像检索
        4.3.3 分层图像检索算法性能分析
    4.4 仿真实验与结果分析
        4.4.1 数据库图像聚类算法仿真与结果分析
        4.4.2 查询图像分层检索算法仿真与结果分析
    4.5 本章小结
第5章 基于漂移检测的单目相机位置估计算法
    5.1 引言
    5.2 基于加权最小二乘的绝对位置估计算法
        5.2.1 对极几何约束下的相机位置估计
        5.2.2 对极几何约束中的平移向量尺度估计
        5.2.3 位置估计异常值检测与不确定度分析
    5.3 相对位置估计中基于地图交互的漂移检测算法
        5.3.1 基于透视N点法与三角测量的相机位置估计
        5.3.2 基于线模型MLESAC的相机位置漂移检测
    5.4 仿真实验与结果分析
        5.4.1 查询相机绝对位置估计实验仿真与结果分析
        5.4.2 查询相机相对位置估计实验仿真与结果分析
    5.5 本章小结
结论
参考文献
附录A 主要变量列表
攻读博士学位期间所发表的论文及其它成果
致谢
个人简历

(3)面向纹理图像识别的特征提取方法研究(论文提纲范文)

摘要
ABSTRACT
缩略语
1 绪论
    1.1 研究背景及意义
    1.2 研究现状以及存在的问题
        1.2.1 研究现状
        1.2.2 存在的问题
    1.3 论文的主要工作与结构安排
2 基于局部特征描述和纹理基元学习的纹理特征提取方法研究
    2.1 引言
    2.2 纹理基元学习方法简介
    2.3 本章方法描述
        2.3.1 局部纹理特征描述
        2.3.2 纹理基元字典学习
        2.3.3 纹理基元编码和特征向量构建
        2.3.4 分类器设计
    2.4 实验与结果分析
        2.4.1 纹理数据库和实验设置
        2.4.2 最佳的纹理基元字典规模分析
        2.4.3 纹理识别精度分析
        2.4.4 实时性分析
    2.5 本章小结
3 全局和局部编码Gabor特征融合的纹理特征提取方法研究
    3.1 引言
    3.2 Gabor滤波方法简介
    3.3 本章方法描述
    3.4 实验与结果分析
        3.4.1 纹理数据库和实验设置
        3.4.2 Gabor特征融合的最佳权值分析
        3.4.3 Gabor滤波不同分量的识别性能分析
        3.4.4 纹理识别精度分析
        3.4.5 对训练样本个数的稳健性分析
        3.4.6 实时性分析
    3.5 本章小结
4 光照、旋转和尺度稳健的改进CLBP纹理特征提取方法研究
    4.1 引言
    4.2 基本的CLBP算法简介
    4.3 本章方法描述
        4.3.1 对光照变化的稳健性实现
        4.3.2 对图像旋转的稳健性实现
        4.3.3 对尺度变化的稳健性实现
        4.3.4 多个半径的特征融合
        4.3.5 本章方法的原理总结
    4.4 实验与结果分析
        4.4.1 纹理数据库和实验设置
        4.4.2 最佳的高斯滤波次数分析
        4.4.3 纹理识别精度分析
        4.4.4 对训练样本个数的稳健性分析
        4.4.5 实时性分析
    4.5 本章小结
5 彩色纹理图像的特征提取方法研究
    5.1 引言
    5.2 颜色信息的作用和应用条件
    5.3 彩色纹理图像的特征提取方法研究
    5.4 实验与结果分析
        5.4.1 彩色纹理图像特征提取和识别系统的构建
        5.4.2 纹理数据库和实验设置
        5.4.3 最佳的颜色量化等级个数分析
        5.4.4 纹理识别精度分析
        5.4.5 颜色信息的贡献分析
        5.4.6 对训练样本个数的稳健性分析
        5.4.7 实时性分析
    5.5 本章小结
6 纹理图像特征提取方法的应用研究
    6.1 引言
    6.2 纹理图像特征提取方法的应用1:树皮分类
        6.2.1 基于纹理特征提取的树皮分类系统设计
        6.2.2 树皮纹理库和实验设置
        6.2.3 树皮分类的结果分析
    6.3 纹理图像特征提取方法的应用2:图像检索
        6.3.1 基于纹理特征提取的图像检索系统设计
        6.3.2 图像检索数据库和图像检索评价指标
        6.3.3 图像检索实验和结果分析
    6.4 纹理图像特征提取方法的应用3:纸币鉴别
        6.4.1 基于纹理特征提取的纸币鉴别系统设计
        6.4.2 纸币图像的倾斜校正
        6.4.3 基于粗略颜色信息的纸币面额识别
        6.4.4 基于灰度纹理特征的纸币真伪鉴别
        6.4.5 纸币鉴别的结果分析
    6.5 本章小结
7 总结与展望
    7.1 论文工作总结
    7.2 未来研究展望
参考文献
致谢
攻读博士学位期间发表的学术论文和参加科研情况

(4)多样例图像视觉注意建模及视觉显着性应用研究(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 研究背景
    1.2 研究意义
    1.3 国内外研究现状
        1.3.1 自底向上视觉注意
        1.3.2 自顶向下视觉注意
        1.3.3 协同视觉注意
        1.3.4 视觉显着性应用
    1.4 本文研究内容
    1.5 本文组织结构
第2章 视觉注意建模理论基础
    2.1 引言
    2.2 视觉注意生理过程
    2.3 视觉注意认知理论
        2.3.1 Treisman特征整合理论
        2.3.2 Koch框架
    2.4 经典视觉注意模型
    2.5 本章小结
第3章 基于视觉感知的特征显着性度量
    3.1 引言
    3.2 人类视觉感知分析
    3.3 视觉特征提取
        3.3.1 主位面亮度特征
        3.3.2 HSI空间颜色特征
        3.3.3 Gabor方向特征
        3.3.4 多方向纹理特征
    3.4 特征显着度计算
        3.4.1 自显着性
        3.4.2 全局对比显着性
        3.4.3 局部对比显着性
        3.4.4 稀疏性
    3.5 实验结果及分析
    3.6 本章小结
第4章 基于多示例学习的多样例图像特征显着度融合
    4.1 引言
    4.2 相关工作
    4.3 基于多示例学习的特征选择
        4.3.1 基于特征显着性的示例划分
        4.3.2 多示例学习算法
        4.3.3 基于离散度的特征筛选
    4.4 基于关注度的特征融合
        4.4.1 特征与图像内容相关度分析
        4.4.2 特征图融合
    4.5 实验结果及分析
    4.6 本章小结
第5章 多样例图像视觉注意模型
    5.1 引言
    5.2 视觉注意模型
    5.3 显着对象提取
        5.3.1 基于全局优化的模糊区域生长
        5.3.2 区域筛选
    5.4 实验结果及分析
    5.5 本章小结
第6章 基于视觉显着性的图像检索
    6.1 引言
    6.2 相关工作
    6.3 基于位面颜色显着性分布直方图的单样例图像检索
        6.3.1 颜色视觉显着性计算
        6.3.2 位面颜色显着性分布直方图特征提取
        6.3.3 相似性度量
        6.3.4 实验结果及分析
    6.4 基于显着对象的多样例图像检索
        6.4.1 显着对象检索特征提取
        6.4.2 相似性度量
        6.4.3 实验结果及分析
    6.5 本章小结
第7章 基于小波域视觉显着性的图像融合
    7.1 引言
    7.2 相关工作
    7.3 小波域视觉显着性融合算法
        7.3.1 面向图像融合的视觉显着性模型
        7.3.2 显着性度量
        7.3.3 小波域显着性融合
    7.4 融合效果评估
    7.5 实验结果及分析
    7.6 本章小结
第8章 总结与展望
    8.1 工作总结
    8.2 主要贡献和创新点
    8.3 下一步研究工作
参考文献
致谢
在读期间发表的学术论文
在读期间参加的科研项目

(5)基于古钱币图像识别与检索关键技术研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 研究背景
    1.2 研究意义
    1.3 基于内容的古钱币图像检索系统
    1.4 本文的主要研究工作与研究成果
    1.5 论文的组织结构
第二章 基于内容的古钱币图像检索国内外相关论述基础
    2.1 基于内容的古钱币图像的识别与检索
    2.2 颜色特征
        2.2.1 RGB彩色模型
        2.2.2 HSI彩色模型
    2.3 形状特征
    2.4 图像的多尺度空间
    2.5 古钱币的钱文研究
    2.6 特征提取与数据降维
    2.7 局部特征
    2.8 相似性度量
    2.9 检索算法性能评价
    2.10 小结
第三章 古钱币数据库的结构体系
    3.1 引言
    3.2 建立古钱币数据库的必要性与意义
    3.3 古钱币图像数据库的建立方法
    3.4 古钱币数据库主要模式的逻辑结构
    3.5 小结
第四章 基于小波变换的多尺度下古钱币图像的边缘检测
    4.1 引言
    4.2 边缘与边缘检测
    4.3 小波变换与边缘检测
        4.3.1 连续小波变换
        4.3.2 离散小波变换
        4.3.3 多尺度小波变换与边缘检测
    4.4 彩色图像边缘检测
        4.4.1 彩色数字图像处理
        4.4.2 彩色图像边缘检测
    4.5 小波多尺度下彩色图像边缘检测
        4.5.1 向量扩展梯度提取边缘图像
        4.5.2 小波变换
        4.5.3 平滑滤波器的选择
    4.6 实验结果与讨论
    4.7 小结
第五章 带细节增强与降噪的多尺度彩色图像边缘检测
    5.1 引言
    5.2 图像中的噪声
        5.2.1 图像的噪声模型与分类
        5.2.2 常用的阈值降噪
        5.2.3 降噪的评价指标
    5.3 带细节增强与降噪的彩色图像多尺度边缘检测
        5.3.1 图像边缘信息降噪
        5.3.2 图像边缘信息增强
        5.3.3 多尺度边缘融合
        5.3.4 实验结果分析与讨论
    5.4 小结
第六章 古钱币图像的多尺度相对矩检索
    6.1 引言
    6.2 多尺度相对矩
        6.2.1 Hu的不变矩
        6.2.2 Chen矩
        6.2.3 相对矩
        6.2.4 多尺度相对矩
    6.3 特征归一化
    6.4 相似性度量
    6.5 实验结果分析与讨论
    6.6 小结
第七章 基于多尺度PCA和SVM的钱文相近字分类研究
    7.1 引言
    7.2 钱文识别的困难
    7.3 主成分分析(PCA)原理
    7.4 多尺度主成分分析(MPCA)
    7.5 支持向量机SVM
    7.6 多尺度PCA和SVM的钱文相近字分类
    7.7 实验结果分析与讨论
    7.8 小结
第八章 结合KPCA和SIFT的古钱币多尺度图像的识别
    8.1 引言
    8.2 局部特征
        8.2.1 局部特征
        8.2.2 尺度空间理论
    8.3 SIFT算法介绍
        8.3.1 图像SIFT特征向量描述子的生成
        8.3.2 SIFT特征向量的匹配
    8.4 KPCA的数据降维
        8.4.1 KPCA核方法的提出
        8.4.2 PCA中核函数的引入
        8.4.3 KPCA的数据降维与特征提取
    8.5 KPCA-SIFT描述子
    8.6 多尺度KPCA-SIFT描述子
    8.7 多分辨率直方图匹配
    8.8 实验结果与分析
    8.9 小结
第九章 总结与展望
    9.1 本文总结
    9.2 展望
参考文献
博士学位期间发表的学术论文
致谢

(6)基于内容的图像数据库检索的技术研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究背景与意义
        1.1.1 研究背景
        1.1.2 研究意义
    1.2 论文选题及主要工作
第2章 基于内容图像检索相关技术综述
    2.1 基于内容图像检索的研究热点
    2.2 图像内容的分析和表示
        2.2.1 颜色特征
        2.2.2 纹理特征
        2.2.3 形状特征
    2.3 图像检索的其它共性问题
        2.3.1 图像的相似性测度
        2.3.2 检索效果评价
        2.3.3 查询方式
    2.4 用户反馈人机合作技术
    2.5 图像检索的其他研究内容
        2.5.1 高维索引技术
        2.5.2 图像数据管理国际标准
    2.6 典型的基于图像内容检索系统简介
    2.7 小结
第3章 基于颜色特征的图像检索
    3.1 引言
    3.2 颜色的表示
        3.2.1 RGB颜色空间
        3.2.2 HSV颜色空间
        3.2.3 RGB空间向HSV空间的转化
    3.3 HSV空间中颜色的非均匀量化
        3.3.1 256种颜色量化方法
        3.3.2 72种颜色量化方法
        3.3.3 32种颜色量化方法
        3.3.4 不同维数颜色特征向量构造
    3.4 一种综合多维特征向量的分层图像检索算法
        3.4.1 图像的相似性度量方法
        3.4.2 分层图像检索算法
    3.5 一种综合颜色和空间特征图像检索算法
        3.5.1 灰度的特征提取
        3.5.2 颜色的特征提取
        3.5.3 图像的分块方法
        3.5.4 图像特征向量提取
        3.5.5 图像内容的相似匹配算法
    3.6 实验结果
    3.7 小结
第4章 基于纹理特征的图像检索
    4.1 引言
    4.2 灰度共生矩阵
    4.3 灰度—基元共生矩阵
        4.3.1 基元阵
        4.3.2 灰度—基元共生矩阵
    4.4 颜色连通区域集
        4.4.1 图像的分块主颜色
        4.4.2 颜色连通区域
    4.5 基于颜色基元共生矩阵图像检索算法
        4.5.1 颜色基元共生矩阵纹理特征提取
        4.5.2 相似性度量函数
        4.5.3 实验结果
    4.6 LBP算法概述
        4.6.1 基本LBP算法
        4.6.2 uniform形式的LBP算法
        4.6.3 分块的LBP算法
    4.7 自适应LBP算法及其相似性度量
        4.7.1 改进的Tamura粗糙度
        4.7.2 自适应LBP算法
        4.7.3 相似性度量
        4.7.4 实验结果
    4.8 小结
第5章 基于形状特征的图像检索
    5.1 引言
    5.2 图像预处理
        5.2.1 图像分割
        5.2.2 图像边缘检测
    5.3 改进的Hu不变矩
        5.3.1 Hu不变矩
        5.3.2 Hu不变矩的改进
        5.3.3 离心率
        5.3.4 特征向量归一化
    5.4 综合改进的Hu矩和边界方向的图像检索算法
        5.4.1 边界方向直方图
        5.4.2 图像特征结合
        5.4.3 算法总结
    5.5 实验结果
    5.6 小结
第6章 基于内容的图像检索实验系统
    6.1 系统运行环境
    6.2 系统框架
    6.3 图像数据库
        6.3.1 数据种类
        6.3.2 图像数据存储方案
        6.3.3 数据表
    6.4 图像入库
    6.5 图像查询
    6.6 小结
第7章 结论及展望
    7.1 全文工作总结
    7.2 展望
参考文献
攻读博士学位期间发表学术论文情况
致谢
论文创新点摘要

(7)基于视觉特征提取的图像检索算法研究(论文提纲范文)

摘要
ABSTRACT
符号对照表
缩略语对照表
第一章 绪论
    1.1 研究背景和意义
    1.2 基于内容图像检索系统的工作流程
        1.2.1 颜色
        1.2.2 纹理
        1.2.3 形状
        1.2.4 空间关系
        1.2.5 反馈技术
    1.3 国内外知名的图像检索系统
        1.3.1 国外知名的系统
        1.3.2 国内知名的系统
    1.4 国内外研究现状
        1.4.1 CBIR研究的早期发展
        1.4.2 基于兴趣点法的图像检索
        1.4.3 基于视觉词汇的图像检索
        1.4.4 基于浅层多特征的图像检索
        1.4.5 基于深度特征的图像检索
    1.5 主要研究内容和论文结构安排
    1.6 论文主要创新及贡献
第二章 彩色能量导向局部模式和颜色直方图(LCEOPaCH)的图像检索
    2.1 研究背景
    2.2 LCEOPaCH算法
        2.2.1 彩色图像的量化
        2.2.2 局部彩色能量指向模式
        2.2.3 距离准则
    2.3 实验结果
        2.3.1 实验数据集
        2.3.2 评估准则
        2.3.3 参数评估
        2.3.4 检索性能
    2.4 结论
第三章 稳定兴趣点区域(SIPR)的图像检索
    3.1 研究背景
    3.2 稳定兴趣点区域算法描述
        3.2.1 兴趣点检测
        3.2.2 稳定兴趣点区域
        3.2.3 稳定兴趣点区域的特征提取
        3.2.4 相似性度量
    3.3 实验结果
        3.3.1 实验数据集
        3.3.2 评估准则
        3.3.3 检索性能
    3.4 结论
第四章 一致性区域主颜色及胡矩(DCD-HM)的图像检索
    4.1 研究背景
    4.2 相关工作
    4.3 DCD-HM的图像检索算法
        4.3.1 颜色量化
        4.3.2 一致性区域
        4.3.3 主颜色的特征提取
        4.3.4 胡矩特征的提取
        4.3.5 距离度量
        4.3.6 DCD-HM算法流程
    4.4 实验结果
        4.4.1 实验数据集
        4.4.2 评估准则
        4.4.3 参数评估
        4.4.4 检索性能
    4.5 结论
第五章 基于区域相关和方向相关(CROCD)的图像检索
    5.1 研究背景
    5.2 区域相关和方向相关描述符
    5.3 CROCD算法流程
        5.3.1 图像的颜色量化
        5.3.2 区域相关描述符
        5.3.3 方向相关描述符
        5.3.4 特征向量的合成
        5.3.5 相似性度量
    5.4 实验结果
        5.4.1 实验数据集
        5.4.2 评估准则
        5.4.3 参数评估
        5.4.4 检索性能
    5.5 结论
第六章 总结与展望
    6.1 研究工作总结
    6.2 研究展望
参考文献
致谢
作者简介

(8)图像特征提取及其隐私保护研究(论文提纲范文)

摘要
ABSTRACT
符号对照表
缩略语对照表
第一章 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
        1.2.1 图像正交矩特征
        1.2.2 隐私保护图像特征提取
        1.2.3 加密图像检索
    1.3 本文的工作与主要贡献
    1.4 本文组织结构安排
第二章 预备知识
    2.1 四元数
    2.2 特征提取
        2.2.1 加权球形Bessel-Fourier矩
        2.2.2 Krawtchouk矩
        2.2.3 VGG16卷积神经网络
    2.3 同态加密
        2.3.1 Paillier密码系统
        2.3.2 Somewhat同态加密
        2.3.3 分布式双门限公钥密码系统
    2.4 本章小结
第三章 基于四元数加权球形Bessel-Fourier矩的彩色图像分析
    3.1 引言
    3.2 QSBFM的定义及其几何不变性
        3.2.1 QSBFM的定义
        3.2.2 QSBFM的几何不变性
    3.3 QSBFM的计算
        3.3.1 QSBFM和SBFM的关系
        3.3.2 从QSBFM和SBFM获得的重构图像之间的关系
    3.4 实验和分析
        3.4.1 彩色图像重构
        3.4.2 QSBFM的几何不变性
        3.4.3 彩色目标识别
        3.4.4 计算复杂度
    3.5 本章小结
第四章 加密图像上的隐私保护Legendre圆型正交矩特征提取
    4.1 引言
    4.2 系统模型和安全模型概述
        4.2.1 系统模型
        4.2.2 安全模型
    4.3 Legendre圆型正交矩
        4.3.1 LCOM的径项投影函数
        4.3.2 LCOM的定义和性质
    4.4 隐私保护Legendre圆型正交矩
        4.4.1 整数近似和PLCOM
        4.4.2 消息空间和扩张因子
    4.5 隐私保护图像重构
        4.5.1 整数近似和PPIR
        4.5.2 消息空间和扩张因子
    4.6 安全性分析
    4.7 实验和讨论
        4.7.1 图像重构
        4.7.2 分类性能
    4.8 本章小结
第五章 加密图像上的隐私保护Krawtchouk矩特征提取
    5.1 引言
    5.2 系统模型和安全模型概述
        5.2.1 系统模型
        5.2.2 安全模型
    5.3 隐私保护Krawtchouk矩
        5.3.1 整数近似和PPKM
        5.3.2 消息空间和扩张因子
    5.4 隐私保护图像重构
        5.4.1 整数近似和PPIR
        5.4.2 消息空间和扩张因子
    5.5 基于块的PPKM和PPIR
    5.6 安全性分析
    5.7 实验和讨论
        5.7.1 图像重构
        5.7.2 人脸识别
        5.7.3 计算复杂度
    5.8 本章小结
第六章 多用户环境下的可追踪加密图像检索方案
    6.1 引言
    6.2 系统模型和安全模型概述
        6.2.1 系统模型
        6.2.2 安全模型
    6.3 平方欧氏距离下界
    6.4 MU-TEIR方案构造
        6.4.1 安全协议
        6.4.2 MU-TEIR概述
        6.4.3 算法细节
    6.5 安全性分析
        6.5.1 数据隐私问题
        6.5.2 恶意QU的可追踪性
    6.6 实验和讨论
        6.6.1 检索精度
        6.6.2 密钥生成时间
        6.6.3 陷门生成时间
        6.6.4 提出的SLBP的效率
        6.6.5 MU-TEIR的可追踪性
    6.7 本章小结
第七章 总结与展望
    7.1 本文工作总结
    7.2 研究展望
参考文献
致谢
作者简介

(9)基于深度学习的商品检测和识别研究(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究背景与意义
    1.2 国内外研究现状
        1.2.1 图像识别研究现状
        1.2.2 基于物体属性的图像识别研究现状
        1.2.3 三维物体识别研究现状
    1.3 本文主要研究内容
        1.3.1 商品检测和识别研究难点
        1.3.2 主要工作内容
    1.4 本文的结构安排
第二章 深度学习概述
    2.1 神经网络基础
        2.1.1 人工神经元
        2.1.2 感知机和神经网络
        2.1.3 深度神经网络
        2.1.4 损失函数
        2.1.5 反向传播算法
    2.2 卷积神经网络
        2.2.1 卷积层
        2.2.2 激活函数
        2.2.3 池化层
        2.2.4 全连接层
        2.2.5 目标函数
    2.3 训练技巧
        2.3.1 数据增强
        2.3.2 网络参数初始化
        2.3.3 Dropout机制
        2.3.4 批规范化
        2.3.5 L1和L2 正则化
        2.3.6 学习率
        2.3.7 优化算法
    2.4 本章小结
第三章 基于多属性联合的物体识别方法
    3.1 引言
    3.2 基于多属性联合的图像分类
        3.2.1 基于DenseNet的多任务学习模型
        3.2.2 联合特征分类器
        3.2.3 预测过程
    3.3 基于多属性联合的图像检索
        3.3.1 样本数据库的构建
        3.3.2 样本的索引及匹配
    3.4 仿真实验
        3.4.1 数据集
        3.4.2 实验设置
        3.4.3 实验结果
        3.4.4 实验分析
    3.5 本章小结
第四章 三维物体识别方法研究
    4.1 引言
    4.2 基于循环多视图的三维物体识别方法
        4.2.1 基于循环多视图的三维物体分类
        4.2.2 基于循环多视图的三维物体检索
        4.2.3 目标函数的优化
    4.3 循环多视图识别方法的仿真实验
        4.3.1 数据集
        4.3.2 实验设置
        4.3.3 实验结果
        4.3.4 实验分析
    4.4 基于点云有序编码的三维物体识别方法
        4.4.1 点云数据的有序编码
        4.4.2 基于点云有序编码的三维物体分类
        4.4.3 基于点云有序编码的三维物体检索
    4.5 点云有序编码的仿真实验
        4.5.1 数据集
        4.5.2 实验设置
        4.5.3 实验结果及分析
    4.6 本章小结
第五章 基于RGB-D信息的图像拼接及目标定位
    5.1 相关工作及动机
    5.2 RGB-D时序图像拼接算法
        5.2.1 ORB特征点提取算法
        5.2.2 坐标变换及融合处理
    5.3 基于RGB-D信息的目标定位算法
    5.4 仿真实验
        5.4.1 测试数据
        5.4.2 实验设置
        5.4.3 实验结果及分析
    5.5 本章小结
第六章 商品检测和识别系统的实现
    6.1 环境搭建
        6.1.1 硬件环境
        6.1.2 软件环境
    6.2 系统设计
        6.2.1 算法模块
        6.2.2 系统架构
        6.2.3 用户图形界面
    6.3 系统测试与分析
    6.4 本章小结
第七章 全文总结与展望
    7.1 全文总结
    7.2 后续工作展望
致谢
参考文献
攻读硕士学位期间取得的成果

(10)图像检索中的特征表达和相似性度量方法研究(论文提纲范文)

摘要
Abstract
主要符号表
1 绪论
    1.1 研究背景及意义
    1.2 基于内容的图像检索概述
        1.2.1 基于内容的图像检索发展及应用
        1.2.2 基于内容的图像检索框架及主要技术
        1.2.3 图像检索性能评价
    1.3 国内外研究现状
        1.3.1 图像视觉特征表达方法研究现状
        1.3.2 图像相似度度量及重排序方法研究现状
    1.4 主要研究内容及论文组织结构
2 相关理论基础
    2.1 相似性度量
        2.1.1 度量学习的基本理论及距离度量函数
        2.1.2 基于扩散过程的相似性学习
    2.2 卷积神经网络
        2.2.1 卷积神经网络结构
        2.2.2 深度特征及表达
    2.3 AFS理论
        2.3.1 AFS代数
        2.3.2 AFS结构
        2.3.3 AFS一致性隶属函数
3 基于多特征表达和扩散过程重排序的图像检索
    3.1 引言
    3.2 特征提取与多特征表达
        3.2.1 颜色直方图特征提取
        3.2.2 局部方向模式特征提取
        3.2.3 视觉词包特征提取
        3.2.4 多特征的融合表达
    3.3 基于扩散过程的距离优化和重排序
        3.3.1 基于扩散过程的距离优化
        3.3.2 重排序搜索策略
    3.4 实验结果及讨论
        3.4.1 数据集介绍
        3.4.2 实验设置及说明
        3.4.3 扩散过程和特征融合对检索性能的影响分析
        3.4.4 本文方法与其它方法的检索性能比较
        3.4.5 扩散过程中的参数k_n对检索性能的影响
        3.4.6 重排序搜索策略的实验分析
    3.5 本章小结
4 基于区域和通道加权深度聚合特征的图像检索
    4.1 引言
    4.2 相关的深度卷积特征聚合方法
        4.2.1 特征聚合方法简介
        4.2.2 特征聚合方法比较和分析
    4.3 基于区域显着性和通道敏感性的特征聚合
        4.3.1 算法概述
        4.3.2 通道敏感性权重
        4.3.3 区域显着性权重
        4.3.4 特征聚合表达
    4.4 实验结果及讨论
        4.4.1 数据集介绍
        4.4.2 实验设置及说明
        4.4.3 相关参数对检索性能的影响分析
        4.4.4 区域权重和通道权重对检索性能的影响分析
        4.4.5 本文方法与其它方法的检索性能比较
    4.5 本章小结
5 基于AFS语义特征和相似性度量的图像检索
    5.1 引言
    5.2 AFS框架下的语义特征表达
    5.3 基于AFS的语义相似性度量
        5.3.1 AFS聚类方法中的语义度量方法
        5.3.2 基于局部近邻的语义相似度量方法
    5.4 基于AFS语义的图像检索算法框架
    5.5 实验结果及讨论
        5.5.1 数据集及图像特征提取
        5.5.2 实验设置及说明
        5.5.3 本文方法与传统的距离度量方法对比
        5.5.4 本文方法与基于AFS的距离度量方法对比
        5.5.5 本文方法与其它图像检索方法对比
        5.5.6 相关参数对检索性能的影响分析
        5.5.7 扩散过程对本文方法检索性能的影响分析
    5.6 本章小结
6 结论与展望
    6.1 本文工作总结
    6.2 主要创新点
    6.3 未来工作展望
参考文献
攻读博士学位期间科研项目及科研成果
    攻读博士学位期间发表的学术论文
    攻读博士学位期间主持和参与的科研项目
致谢
作者简介

四、一种利用多特征向量的彩色图像检索方法(论文参考文献)

  • [1]多源多视的三维场景和物体重建[D]. 谢浩哲. 哈尔滨工业大学, 2021(02)
  • [2]基于室内三维稠密地图的视觉定位关键技术研究[D]. 冯冠元. 哈尔滨工业大学, 2019
  • [3]面向纹理图像识别的特征提取方法研究[D]. 王军敏. 西北工业大学, 2019(04)
  • [4]多样例图像视觉注意建模及视觉显着性应用研究[D]. 万寿红. 中国科学技术大学, 2014(08)
  • [5]基于古钱币图像识别与检索关键技术研究[D]. 肖锋. 西北大学, 2012(05)
  • [6]基于内容的图像数据库检索的技术研究[D]. 张恒博. 大连理工大学, 2008(05)
  • [7]基于视觉特征提取的图像检索算法研究[D]. 谢光艺. 西安电子科技大学, 2020(02)
  • [8]图像特征提取及其隐私保护研究[D]. 杨腾飞. 西安电子科技大学, 2020(05)
  • [9]基于深度学习的商品检测和识别研究[D]. 张文强. 电子科技大学, 2019(01)
  • [10]图像检索中的特征表达和相似性度量方法研究[D]. 周菊香. 大连理工大学, 2019(01)

标签:;  ;  ;  ;  ;  

一种使用多个特征向量的彩色图像检索方法
下载Doc文档

猜你喜欢