基于MAP准则的两步人脸图像分辨率增强算法

基于MAP准则的两步人脸图像分辨率增强算法

一、基于MAP准则的两步人脸图像分辨率增强算法(论文文献综述)

杨善敏[1](2021)在《面向异质人脸识别的域不变特征学习方法研究》文中提出人脸识别作为人工智能的典型应用之一,具有重要的实用价值和研究意义。近年来,基于深度卷积神经网络的人脸识别技术取得了突飞猛进的发展,但主要集中于二维可见光人脸识别的研究,在真实无约束场景中仍然面临许多挑战和难题。随着人脸识别应用的推广和传感器技术的发展,异质人脸识别需求应势而生且日益增大。但异质人脸图像间显着的外观变化,使现有人脸识别系统面临识别精度大幅下降的问题。本文对异质人脸识别问题及其解决方案进行了分析,并从基于特征表示学习、基于子空间学习和基于混合学习三个方向出发,对异质人脸图像的域不变本质特征学习方法进行了深入研究。此外,还构建了一个室外无约束场景的3D-2D人脸识别数据库。本文主要工作和贡献包括:1.针对缺乏方法研究框架模型的问题,提出了一种异质人脸识别框架模型。缺乏明确的异质人脸识别方法研究框架模型,容易导致对各方法的研究动机、不同方法之间的关联以及对不同方法的归类总结不够直观,甚至出现混淆的问题。针对该问题,本文进行初步探索并建立了一种异质人脸识别框架模型。该模型有助于对现有异质人脸识别方法的理解和归类总结,还为后续方法研究提供了理论支撑和研究思路,具有一定的指导性意义和作用。2.针对跨域差异的度量和消除难题,提出了一种基于对抗的域不变特征学习方法DIDF。显着的跨域差异是异质人脸识别研究需要重点攻克的问题。对此,本文从基于特征表示学习的研究方向出发,对异质人脸识别框架模型中的特征提取过程进行重点研究,提出了一种基于对抗的域不变特征学习方法。在一个端到端的网络中同时优化基于对抗学习的域自适应对齐和基于四元组度量学习的类对齐,以消除分布差异、减小类内变化且增大类间可分离性。在CASIA NIR-VIS 2.0、Oulu-CASIA NIR&VIS、BUAA-Vis Nir和IIIT-D Viewed Sketch四个异质人脸识别基准数据库上的实验表明,该方法不仅有助于解决分布差异的度量和消除问题,还提高了人脸特征的域不变性和类(即身份)鉴别性。3.针对跨域差异等所有身份无关因素对人脸识别造成影响的问题,提出了一种注意力引导的特征解耦方法AgFD。除跨域差异外,其他外界因素,如姿态、年龄等变化,也会对人脸识别的结果造成影响。针对该问题,本文从基于子空间学习的研究方向出发,对异质人脸识别框架模型中的特征匹配过程进行重点研究,提出了一种注意力引导的特征解耦方法。采用分层互补的方式自适应地将人脸面部表征解耦为身份特征和身份无关特征(具体包括模态信息以及其他所有身份无关信息),同时还通过基于互信息的对抗去相关学习和基于总体相关信息的对抗去相关学习,提高身份特征对模态等所有身份无关因素变化的鲁棒性以及对身份特征自身局部维度变化的鲁棒性。实验结果表明,提出的方法在多个异质人脸识别基准数据库上的识别性能都表现出一定的优势。4.实现了基于DIDF和AgFD的3D-2D人脸识别方法,在公开库上的识别性能都超过了现有方法。同时,针对真实室外无约束场景3D-2D数据缺乏和识别难题,构建了一个人脸识别数据库WS3D-2D,还提出了一种改进的基于特征解耦的方法FD-3D2D。首先,本文从基于混合学习的研究方向出发,对异质人脸识别框架模型中的多个处理过程进行研究,分别实现了基于DIDF和AgFD的3D-2D人脸识别方法,在公开数据库FRGC V2.0上的识别性能都超过了现有方法。其次,针对目前3D-2D人脸识别数据缺乏且大多采集于实验室受控环境的问题,构建了一个真实室外无约束场景下的3D-2D人脸识别数据库WS3D-2D。该数据库包含受试者对象的高精度全脸三维模型和室外无约束场景下的二维监控图像,与实际应用中的数据非常逼近,因此具有重要的研究意义和实用价值。此外,针对室外无约束场景下的3D-2D人脸识别难题,通过对AgFD方法中的四元组采样策略进行改进以及引入明确的姿态解耦约束,提出了一种改进的3D-2D人脸识别方法FD-3D2D。实验结果表明,该方法有助于减小训练数据噪声带来的影响以及克服二维监控图像的大姿态变化等人脸识别难题。基于本研究工作开发的3D-2D人脸识别系统在多个实际现场取得的成功示范应用,证明了本研究工作的意义和价值。上述工作虽然是针对异质人脸识别的研究和探索,但其理论和研究方法具有一定的通用性和可扩展性,对其他领域,如跨年龄人脸识别、跨姿态人脸识别、行人重识别等,依然具有一定的参考意义和指导作用。

符永胜[2](2021)在《城市道路交通不良驾驶行为视频图像智能识别研究》文中研究说明随着整体生活质量的不断提高,人们对汽车的旺盛需求促使汽车保有量逐年增加,使得道路交通事故发生的频率不断提高。尤其是对于城市道路交通事故来说,这已经成为城市发展过程中急需解决的一个问题。驾驶员的不良驾驶行为是引发事故的主要原因。因此,对驾驶员的不良驾驶行为图像尤其是来自于车内的驾驶行为图像进行智能识别成为目前驾驶行为研究的一个主要方向,研究者们采取不同的研究方法进行了大量的研究,并取得了具有一定实用价值的成果。其中,重量级的卷积神经网络能够对驾驶行为图像很好地进行识别,但因其参数量大,不能直接部署在内存容量、计算资源都受到限制的移动端设备中。因此,本文围绕驾驶行为视频图像,从以下两个方面对轻量级卷积神经网络在驾驶行为图像上的识别开展研究:(1)基于卷积神经网络迁移学习的驾驶行为图像识别。对VGG16、Res Net50、Inception V3、Xception四种参数量大的卷积神经网络模型在AUC V2驾驶行为图像数据集上采用深度迁移学习的方法来进行微调,实验结果表明Xception模型表现最好,测试集上的总体识别准确率为93.24%;对主流的轻量级卷积神经网络模型在驾驶行为图像上也采用相同的方法来进行实验,实验结果为Efficient Net-B0模型表现最好,测试集上的总体识别准确率为91.21%。此外,通过基于混淆矩阵和利用Grad-CAM特征可视化方法分别对这两个模型进行对比分析可知,Xception模型在驾驶行为图像识别上要优于Efficient Net-B0模型。(2)基于图像数据增强的正则化方法和知识蒸馏来提升Efficient Net-B0模型对驾驶行为图像的识别能力。针对Efficient Net-B0模型在驾驶行为图像的识别能力方面不如Xception模型的问题,提出在Efficient Net-B0模型的训练过程中采用三种图像数据增强正则化方法以及知识蒸馏,实验结果表明mixup数据增强正则化方法和知识蒸馏都能有助于提升模型对驾驶行为图像的识别性能;提出将mixup数据增强正则化方法和知识蒸馏进行结合,共同应用在对Efficient Net-B0模型的训练过程中,实验结果表明当采用Normal KD知识蒸馏方法结合mixup数据增强正则化方法时能够有效提升Efficient Net-B0模型在驾驶行为图像上的性能,测试集上的总体识别准确率达到了95.94%。此外,通过基于混淆矩阵和利用Grad-CAM特征可视化方法分别对性能提升后的Efficient Net-B0模型和Xception模型进行对比分析可知,采用Normal KD知识蒸馏方法结合mixup数据增强正则化方法训练的Efficient Net-B0模型在驾驶行为图像识别上相对于Xception模型要好。本文还开发了基于安卓操作系统的app,实现了性能提升后的Efficient Net-B0模型进行移动端部署。

艾文杰[3](2021)在《基于生成对抗网络的人脸超分辨率算法研究》文中指出随着科学技术的发展,人们对高分辨率图像的需求日益增长。而受制于当前技术以及预算的限制,这种需求并不能得到很好的满足。同时,在非受控环境中,大量的不可控因素如光照、距离、大气扰动等造成了许多低分辨率的图像,低分辨率的人脸图像便是其中之一。这些低分辨率人脸图像严重影响了人们的视觉感受,对一些特殊应用如刑侦破案造成了诸多不便。作为超分辨率重建领域的重要分支,人脸超分辨率重建旨在将低分辨率的人脸图像重建为高分辨率人脸图像,从而为智慧城市建设、公共安全领域提供重要的数据支撑。近年来,深度学习尤其是卷积神经网络和生成对抗网络的发展极大的促进了人脸超分辨率算法的研究。为了更好的解决人脸超分辨率重建问题,本文分别设计了基于卷积神经网络和基于生成对抗网络的人脸超分辨重建算法。本文的主要工作如下:(1)基于注意力机制的卷积神经网络人脸超分辨率算法。在该算法中,本文将空间注意力机制和沙漏网络模块嵌入到残差机制中,构成一种新的空间注意力残差模块。空间注意力模块提升了网络抽取人脸有用信息的能力,沙漏网络模块可以同时使用多尺度的卷积特征,充分挖掘不同尺度特征之间的人脸信息,提高了重建图像的质量,丰富了生成人脸的图像细节信息。(2)基于注意力机制的生成对抗网络人脸超分辨率算法。本文将空间注意力机制应用于生成对抗网络中,构建了一个生成能力强的重建网络;本文第一次将RaGAN-LS损失函数用于超分辨率人脸图像的生成,稳定了生成对抗网络的训练,提高了网络生成更加真实人脸图像的能力;本文使用了多判别器对生成的人脸图像从全局和局部进行判别,保证了生成网络可以同时关注整张人脸以及相应的局部信息;在网络的生成器和判别器中,本文均使用了谱归一化对网络进行改造,谱归一化的应用使得网络的训练更加稳定;本文在生成器和判别器中分别使用了防止神经元”死亡“的带参数的Re LU和带泄露的Re LU激活函数。通过与其他人脸超分辨率算法对比可知,提出的两种人脸超分辨率重建算法可以生成更为真实、包含更多细节信息的人脸图像,不仅提高了人眼的视觉感受,同时也有助于提高人脸识别等后续应用的精度。

刘华明[4](2020)在《基于多分辨率技术的图像修复方法研究》文中研究指明数字图像修复技术用于艺术品复原以来,该技术得到了学术界和工业界的广泛关注,已成为图像处理领域的研究热点之一,在艺术品复原、影视特技、信息传输纠错、视频修复等方面具有广阔的应用前景。目前提出的图像修复方法数量较多,其中Criminisi提出的样本块技术,因其修复过程简单、填补效果好、能同时修复纹理和结构,已成为一种经典的方法。但是该方法也存在优先权计算不合理、样本块搜索耗时、样本块的匹配不准确、填补后出现块效应等问题,尽管有些学者对其不断进行改进,仍然还存在着优先权获取不准确、样本块匹配约束性不足、样本块遍历范围小、候选块挑选不理想、块效应处理比较简单、对多分辨率图像的资源利用不充分等问题,因此,还需要更进一步探究。本文以Criminisi提出的样本块技术为修复主框架,在其基础上进行了一系列优化:用多分辨率图像特征获取更精确的优先权;加入梯度或边界约束,提高样本块最优匹配;缩小遍历范围且采取并行搜索,以减少时间消耗;利用图割技术消减块效应;兼顾纹理和结构内容更准确获取样本块大小;应用多分辨率图像逐层引导修复,达到全局和局部填补的一致性;充分利用多分辨率图像资源优选更合适的样本块;在深度卷积生成对抗网络中加入梯度约束,提升语义修复质量。通过对以上问题的深入研究并进行实验分析,我们提出的改进的样本块修复技术在一定程度上能提高图像修复质量和效率。主要工作如下:(1)提出了基于样本块尺度自适应选择的图像修复方法。图像中的噪声点影响梯度值,进而使数据项的获取产生误差,导致得到的优先权值不准确,引起修复次序出错。我们利用三层不同分辨率图像的特征得到数据项,增强了数据项计算的稳定性。以纹理库图像Brodatz作为分析对象,提取24个特征值训练神经网络,预测纹理样本块的大小;通过提取结构张量特征值,进而确定结构项,再拟合得到结构样本块的大小;由这两种样本块尺寸共同确定最佳样本块的大小。实验发现,在7×7至17×17之间挑选样本块的大小比较合适。通过对结构和纹理图像的实验分析,表明该技术具有很好的修复能力。(2)提出了基于整体引导式分层图像修复算法。根据图像尺寸和样本块大小自动计算图像分解的层数;将图像分解为多分辨率图像后,先实施顶层修复,再逐步利用各层修复的结果引导下层修复。整体引导使得下层图像的修复具有先前的引导信息,从而使各层的样本块匹配更加准确;在其它层(除顶层外)的修复中加入梯度距离搜索相似样本块,使选取的样本块更准确。实验表明,在修复具有简单纹理和结构的图像时,该方法可以取得满意的修复效果。(3)提出了基于筛网型引导式分层图像修复方法。采用整体引导式方法修复比较复杂的纹理区域时,因采取上采样操作,图像会出现一定的模糊性。为解决此问题,提出了筛网型引导式修复方法。在顶层修复后,上采样通过隔行隔列的0填补,只使用部分信息引导下层修复,与整体引导式修复算法相比,筛网型引导式方法可以去除模糊带来的副作用。由于图像中可能存在旋转或翻转的样本资源,考虑在多种旋转和翻转情况下进行搜索,使得图像的搜索更加精确。通过当前层和其上层图像获取其它层(除顶层外)图像的数据项,得到的优先权值更合理。存在多个候选样本块时,利用SSIM(Structural Similarity Index Measurement)进行筛选,以挑选出更相似的样本块。(4)提出了基于多分辨率图像特征和图割技术相结合的图像修复方法。将图像分解后得到多个不同尺度的图像,扩展了图像的样本资源,搜索这些资源可以找到更加相似的样本块。为了加快图像的搜索速度,在填补块周围进行搜索,减小搜索的范围。加入SSIM评价筛选样本块,同时用图割技术消减填补产生的块效应。实验验证了该图像修复技术的有效性。(5)提出了基于深度卷积生成对抗网络的图像修复方法。用基于样本块的技术修复图像时,在样本资源不足的情况下,无法找到合适的样本块,从而导致修复不能满足要求。为解决这个问题,采用DCGAN(Deep Convolutional Generative Adversarial Network)网络结构,在填补区域的周围加入梯度损失约束促使填补结果更符合视觉一致性。该方法具有语义修复的能力,将其与传统的图像修复方法和其它深度神经网络相比,实验结果表明了该方法具有不错的修复效果。

周思航[5](2019)在《用于低质量医疗图像分割的表示学习》文中进行了进一步梳理基于计算机视觉的自动图像分割是机器辅助医疗图像分析任务中至关重要的步骤。自动且快速地获取具有准确分割掩码的医疗图像,对于帮助医生提高诊断精度、速度以及针对不同病人提供个性化的治疗方案具有重要的意义,针对该技术的研究也是当前科研领域的热点方向。在所有的研究问题当中,由于受到医疗图像独有的对比度低、噪声大、伪影多、内存占用量大以及获取标注信息困难等特性的影响,表示学习成为了提高医疗图像分割性能的核心方向之一。如何在有监督甚至无监督场景之下获取对于大噪声、多伪影、低对比度图像鲁棒的特征表示是分割任务中至关重要的研究问题。本文致力于消除由前述图像特性对分割任务带来的消极影响,针对有监督语义分割、实例分割以及无监督分割场景设计算法,利用深度学习以及核学习等表示学习方法,提取高质量的图像特征,最终提高相应场景下的分割精度。论文的主要创新点概括如下:1.通过改进传统的编码-解码网络连接方式,并向其注入高分辨率语义信息,提出了一种针对低质量医疗图像的语义分割深度神经网络。近年来,语义分割领域的高精度算法大都采用一种由跳跃连接(skip connection)联结的编码-解码网络结构。然而,在很多分割目标边界模糊不清的应用场景中,以上模型往往无法准确定位物体边界实现精准分割。本文中,我们通过分析与实验发现,导致以上问题的主要原因是:通过跳跃连接保存的物体位置信息虽然具有较高的分辨率,但是语义信息欠缺、判别性不够,不足以准确地排除虚假边界以及消失边界带来的消极影响。为了解决这个问题,我们提出了一种高分辨率多尺度编-解码网络(MHMSN)。该网络在已有的两种神经网络通路的基础上(跳跃通路和编解码通路),创新性地加入了第三种高分辨率语义通路,通过引入高分辨率语义信息使得该通路可以同时指导网络提取“是什么”以及“在哪里”两种信息,从而实现对模糊边界更精准的定位。大量的实验证明了所提算法的有效性。此外,在实验中我们还发现,除了众所周知的可以通过提高网络复杂度提升分割精度之外,合理选择语义信息的分辨率也能极大地影响网络的分割精度。2.通过挖掘纹理信息之外的物体结构信息,提出了一种对于分割目标形状和大小鲁棒且对低对比度以及高噪声不敏感的实例分割算法。现有的实例分割方法主要分为基于检测框和不基于检测框的算法。然而,我们发现在医疗图像的应用场景中,非常规的物体形变和密集分布的分割目标常使得基于检测框的分割算法难以实现对实例的准确定位。而图像当中由于低分辨率导致的模棱两可的边界,挑战了不基于检测框算法中以检测边界点为核心的分割机制。为了解决这些问题,我们提出了一种基于深度判别监督的非检测框算法。在此算法中,一种新颖的深度判别监督模块(DDS module)被加入到精心设计的多任务全卷积神经网络中。由于该模块的加入,鲁棒的实例级信息,尤其是实例的结构信息被引入到网络中,极大地提高了网络的分割精度。以该算法为主体,我们获得了MICCAI 2018年度两个国际细胞分割竞赛的第2名与第6名。3.针对无监督分割任务容易受到噪声影响的问题,提出了一种基于子空间聚类的鲁棒多视图信息融合算法。无监督多视图信息融合是一种无监督场景下有效融合多源信息,实现各个视图之间取长补短的表示学习方法。虽然其优异的性能在很多领域已经得到验证,但是医疗图像当中大量的噪声信息仍然极大地影响了表示学习的质量以及分割效果。为了解决以上问题,我们将子空间分割算法同多核聚类相融合,提出了一种基于子空间分割和多核聚类的多视图信息融合算法。在我们的优化范式中,经过精心设计的噪声表示矩阵以及两个稀疏约束条件,极大地缓解了噪声对于表示学习的消极影响。为了高效求解以上优化问题,我们提出了一种新颖的乘子交替方向法(ADMM)。在多个合成数据集以及基准数据集上的实验结果,验证了本文算法的优异性能。4.通过更有效地保存数据内部的局部几何结构,提出了一种基于超像素的多核聚类分割算法。基于超像素的多核聚类算法是一种重要的无监督图像分割算法,其通过挖掘每个超像素中来自多个基核矩阵的互补信息实现最优分割。为了更好地提取并融合每个超像素的判别信息,我们提出了一种简单有效的基于邻居核的多核聚类算法。在该方法中,我们首先设计了一种能够更好地保存核矩阵内部对角分块结构,并且提高核矩阵对于噪声和异常点鲁棒程度的邻居核(neighbor-kernel)。然后,我们将每个视图中提取的邻居基核线性组合,利用提出的带有精确秩约束的子空间聚类算法提取多视图的共享邻居矩阵。最后,基于该矩阵进行图像分割。为了准确求解以上优化问题,我们提出了一种高效的迭代优化算法,并且证明了其有效性。通过推导,我们发现带有精确秩约束的岭回归问题的最优解是无约束岭回归问题最优解对于其主成分的反向映射,揭示了两个问题的联系以及施加精确秩约束的物理意义。通过在多个数据集上开展大量实验,我们证明了所提算法的有效性。5.通过深入挖掘数据内部的高阶邻居信息,提出了一种基于多视图谱聚类的分割结果后期融合算法。后期融合是一种将多个分割结果综合考虑并有效结合,从而提高分割性能的技术手段。为了更好地实现无监督场景下的后期融合,我们改进现有的多视图谱聚类算法提出了一种基于最优邻居拉普拉斯矩阵的多视图谱聚类方法。为了构造能够融合多算法结果的最优拉普拉斯矩阵,现有算法通常将一组事先给定的一阶拉普拉斯矩阵线性组合,通过寻找最优组合系数来实现信息融合。然而近期的研究结果表明,这种方式极大地限制了学习得到的最优拉普拉斯矩阵的表达能力,并且没有充分挖掘数据内部的结构信息。为了解决这个问题,我们提出了一种最优邻居多视图谱聚类算法(ONMSC)。具体而言,本文方法通过同时在一阶和高阶拉普拉斯矩阵所张成线性空间的邻居空间当中搜索最优的拉普拉斯矩阵表示,极大地扩展了最优矩阵的搜索空间,有效地利用了数据内部的高阶邻居信息,获得了更好的分割效果。为了求解文中的优化问题,我们提出了一种高效且收敛性可证的优化算法。通过大量的实验验证,我们证明了算法的有效性。

肖康[6](2019)在《低分辨率场景下的人脸识别系统的设计与实现》文中认为随着时代的发展和科技的进步,越来越多的商业、民用及法律相关的程序都需要验证个人身份。例如,支付宝的人脸登陆功能,手机的人脸解锁功能和警察执法时使用的身份证人脸比对系统,都需要使用人脸识别比对技术。这样的技术需求导致人脸识别技术在过去的几十年时间里得到了许多研究者地关注,同时人脸识别技术也得到了飞速地发展。但在一些特殊场合,例如,社区监控、车站监控、街道监控等真实场景下,采集的人脸图像受摄像设备清晰度、安装位置、角度、光线等因素影响,导致采集的人脸图像分辨率较低,不易识别。在上述几种场合下,采集到的人脸图像包含人脸特征信息少,人脸特征难以提取,导致人脸识别任务难以进行。于是,本文重点研究了如何将低分辨率图像重建为高分辨率的问题,并在此基础上设计低分辨率场景下的人脸识别系统,主要工作如下:1)针对低分辨率场景下的人脸识别的需求,对整个系统的功能模块和系统总体架构进行了设计,主要的功能模块包括视频显示、人脸检测、人脸图像超分辨率重建、人脸识别、人脸信息管理等模块,人脸信息管理模块主要用于管理员对人脸信息数据库地维护,而系统界面主要用于人脸识别及身份信息输出等功能,并对人脸识别系统业务流程做了详细描述。并且通过设计界面,使所有模块功能都能很快地被用户接受,并且能实时展示检测、重建、识别结果和运行的实际效果;2)研究了低分辨率场景下人脸图像不易识别的核心问题,并介绍了解决这个问题的方法,即超分辨率重建。改进基于生成对抗网络的超分辨率重建方法,依据现有网络结构改进方法对其结构进行了改进,使得网络结构轻量化,参数更少,利于训练;在针对人脸突出特征信息方面,将眼、口、鼻等细节特征进行专项地重建加强,提出了增强人脸细节特征超分辨率重建方法,以增强人脸突出特征的细节表达,更加利于低分辨率场景下的人脸识别任务地开展;利用现有人脸数据库CeleA及CASIA-WebFace的数据资源,对其进行下采样的预处理,用于网络地训练,最后,同时进行了对比试验,验证了其有效性;3)对于人脸特征提取的算法模型,基于对残差神经网络(ResNet)的研究,在ResNet的基础上构建了适用于实际使用的网络结构ResNet-34,并配合损失函数CenterLoss对所构建网络进行训练,并在数据集LFW上进行测试,取得了较好的识别率。故使用ResNet-34完成人脸特征向量的提取任务,并经过实验测试,特征提取网络在人脸识别测试任务中达到了较好的准确率;4)对本文所设计的人脸识别系统进行了测试,能够很好地完成低分辨率场景下的人脸识别任务,能够投入到实际的使用过程中,有效地改善了低分辨率场景下人脸识别困难的问题。

贾洁茹[7](2019)在《跨摄像机行人再识别中度量学习算法研究》文中提出跨摄像机行人再识别(person re-identification,re-ID)是指对于某个摄像机下出现的某个行人,在其他与之无重叠视域的摄像机中,将该目标行人再次识别出来。该问题是对目标进行跨摄像机追踪的关键基础,是目前模式识别和计算机视觉领域的研究热点。本文对行人再识别中图像间的距离度量问题进行了深入研究,从多度量学习、跨视角分析和排序优化等几个方面出发,提出了新的度量学习算法,并将其应用在行人再识别任务中,主要的研究成果及贡献包括:(1)提出了一种基于等距映射的局部Fisher判别分析的度量学习算法为了有效地度量行人图像间的相似度,本文在局部Fisher判别分析(LFDA)算法的基础上,针对其受线性约束和容易过拟合的不足,假设行人数据分布在非线性流形上,并寻求一个投影方向将原始特征向量映射到一个新的低维空间中,在投影过程中保持流形结构(等距映射)。将等距映射项与LFDA的目标函数通过线性加权结合起来,设计一种新的Fisher准则,使得求得的投影方向不仅在最大化数据类间散度的同时保证类内散度的最小化,并且可以有效保持原始特征空间的流形结构。等距映射项可以作为一个有效的正则项,缓解类内散度矩阵的奇异性,从而减轻过拟合风险。(2)提出了一种基于查询图像自适应权重和多任务学习的多度量学习算法主流的度量学习算法大都是通过将不同模态的特征进行级联,学习一个单一的度量矩阵,忽略了每种特征的本质属性,不能有效地利用每种特征的判别能力。因此本文提出了一种多度量学习算法,分别对不同模态的特征进行度量学习,最终的度量矩阵表示为多个度量矩阵的加权和。此外本文研究了如何在多度量学习中为不同的特征分配权重,提出了一种两步权重学习策略,首先根据不同的查询图像中每种特征的判别能力,自适应地为不同的特征空间分配权重。然后将每个特征空间内的再识别看作一个单独的排序任务,对所有的特征空间同时进行多任务权重学习。该算法能有效利用不同模态的特征的分类能力,并可以动态地决定每种特征在最终距离计算中的贡献,实验结果表明它能显着提高行人再识别的准确率。(3)提出了一种基于自训练的半监督跨视角子空间学习算法行人再识别中一个关键问题在于如何对行人进行跨视角的身份匹配,确认不同视角下拍摄到的行人图像是否属于同一人。典型相关分析(CCA)是探索两组数据间关系的有力工具,但CCA需要对行人的身份标签进行人工标注,才可将不同视角下的同一行人的图像进行关联。而人工标注非常耗时且不可靠,因此本文提出了一种基于自训练的半监督子空间学习算法,首先利用有限的有标签样本学习一个初始投影方向,然后将其余的无标签样本用此投影方向映射到一个低维子空间中,用此空间中的最近邻关系构建样本的伪成对关系,并将这种伪成对关系转化为图拉普拉斯正则项,与CCA算法结合,学习一个新的投影方向。这个过程迭代进行,直到伪成对关系不再变化。该算法在半监督实验中取得了优越的性能,只需要标注少量训练样本,即可取得与全监督算法相当的准确率。(4)提出了一种基于上下文相似性和内容互相相似性的重排序算法重排序算法可以利用初始排序列表中的各种信息对该初始列表进行进一步的调整优化,进一步提高行人再识别的准确率。但现有的重排序算法计算复杂度普遍较大,且算法性能不稳定。因此本文提出了一种全新的轻量级重排序算法,其基本思想是真正属于同一行人的不同图像的邻域中应该有很多共同的重复元素,而且二者在彼此的排序列表中都应该位置靠前。具体来说,首先构建查询图像和候选图像集的扩展交叉邻域,然后分别计算二者交叉邻域中元素的重复程度(上下文相似度)和二者在彼此的排序列表中的位置(内容互相相似度)。用这种新的相似度分数对初始排序列表进行调整优化,可以发现更多正确匹配结果,减轻虚假匹配造成的影响,算法简洁轻便,且对准确率有明显、鲁棒的提升。

闵雄阔[8](2018)在《基于感知特性的多媒体体验质量研究》文中认为随着信息技术的快速发展,多媒体逐渐成为人们表达和沟通的一种重要媒介,而多媒体信息也呈爆炸性增长。在此背景下,相关的多媒体处理技术也成为了研究热点。多媒体信息的最终接收者通常是人,因此研究并利用人的感知特性能够有效地提升相关的多媒体处理技术。本文通过研究人类的感知特性,重点探讨了若干与多媒体体验质量相关的技术,尤其是多媒体体验质量评价。人类感知多媒体信息是一个自底向上不断对底层感知信号进行加工,从而提取更加高层的语义信息的过程,而整个信息感知过程也通常被概念化为几个层级化的阶段:底层、中层及高层感知。底层感知主要从输入的感知信号中获取基础特征,例如亮度、颜色和方向;中层感知主要通过分析和整合基础特征得到更高级的中层特征,例如图像结构和轮廓;高层感知主要通过进一步分析中层特征得到内容和语义信息,例如物体和场景。本文深入探索多媒体信息的底层、中层及高层感知过程,利用人类在各个阶段的感知特性构建多媒体体验质量评价模型,从而为提供更好的体验质量提供帮助。本文的研究内容主要包括以下三个方面:首先,人类在底层感知过程中利用注意力机制有选择性地筛选出关键信息来进行更高级的处理。本文对底层感知过程中的这种注意力进行建模,并利用视觉注意来辅助视觉质量评价。具体地,本文引入了更多的影响视觉注意的因素,完善了现有的视觉注意模型,并利用视觉注意给重要性不同的内容赋予不同权重来辅助视觉质量评价。传统视觉注意模型通常充分利用亮度,颜色和方向等视觉特征来检测与周围环境显着不同的区域。这些模型在能被这些视觉特征很好地表征的场景中表现良好,但是在某些其它场景中效率不高,因此有必要纳入一些其它影响视觉注意的因素来完善现有视觉注意模型。音频信息普遍被当前的视觉注意建模研究忽略,然而音频信息对视觉注意会产生一定的影响,因此本文尝试同时利用视听觉信息来对视觉注意进行建模,并提出了一种视听注意模型。通过视听相关分析,本文定位出运动并发出声音的物体作为听觉注意力图,然后再将听觉注意力图与传统视觉注意力图进一步融合得到最终的视听注意力图。人脸信息是另一种对视觉注意有显着影响的因素。尽管有一些视觉注意模型纳入了人脸检测,但是它们考虑人脸信息的方式并不全面,因此本文对人脸上的视觉注意分布进行了系统性的分析,并提出了针对人脸图像的视觉注意模型。基于人脸检测及特征点定位,本文提取了一系列人脸特征,并将这些人脸特征与传统显着图结合得到预测的人脸视觉注意力图。相关的眼动实验结果表明传统视觉注意模型在纳入以上因素之后得到了显着提升。视觉注意机制作为视觉感知的一种底层机理,能够辅助更加高层的视觉信号处理,包括视觉质量评价。因此本文还借鉴了视觉注意机制,在质量评价的过程中给显着区域赋予更高的权重,而给非显着区域赋予更低的权重来辅助视觉质量评价。其次,人类在中层感知过程中的基础特征整合会受到质量退化的影响。本文利用中层感知过程中的这种失真感知特性构建体验质量评价模型。具体地,本文引入最大失真图像的概念,搭建了基于最大失真图像的盲质量评价框架,并提出了一系列基于该框架的针对特定失真的和通用的盲图像质量评价算法。传统质量评价算法一般都遵循一个通用框架,即通过衡量目标图像与高质量图像的偏差来评价图像质量。受此框架的启发,本文引入了最大失真图像的概念。与高质量的参考图像不同,最大失真图像由失真图像生成,并且它描述了目标图像在遭受较严重的失真时的状态。本文将最大失真图像作为描述最差图像质量的基准点,并通过衡量失真图像与最大失真图像的偏差来估计图像质量。利用上述的质量评价框架,本文提出了基于最大失真图像的块效应,锐度和噪度估计算法,然后再利用一个先失真识别后质量回归的两步框架将这些针对特定失真的质量评价算法融合成一个通用的基于最大失真图像的盲质量评价算法。本文进一步对以上算法进行改进,通过往失真图像增加多种类型及程度的失真来引入多级失真强化图像,然后再比较失真图像和多级失真强化图像之间的相似性。与某一级失真强化图像越相似表示目标图像的质量越接近该图像,而融合失真图像和多级失真强化图像之间的一系列相似性分数即得到基于多级失真强化图像的盲质量评价算法。主流图像质量评价数据库上的实验结果验证了本文提出的算法的有效性。此外,本文提出的算法比主流无参考算法更加稳定,因为本文通过比较图像来估计图像质量,而图像内容的影响在这样的对比过程中得到显着降低。最后,人类在高层感知过程中得到内容及语义信息,而感知质量则严重依赖于高层内容及语义信息。本文利用高层感知过程的这种内容感知特性来拓展多媒体体验质量评价的适用范围。具体地,本文研究跨内容来源的视觉质量评价,并提出了跨内容来源的图像质量评价算法。随着远程终端,云计算,游戏直播等应用的快速发展,视觉通信系统中的内容来源得到了极大的扩展。与从现实世界场景拍摄得到的自然场景图像不同,计算机图形图像和屏幕内容图像大部分都是利用计算机人为生成的,而且它们具有许多与自然场景图像明显不同的特性。因此,很有必要研究图像质量评价在各种内容来源上的适用性,扩展现有的图像质量评价算法的内容来源适用范围。一方面,本文开展了跨内容来源的主观图像质量评价研究,并提出了一个适用于自然场景,计算机图形及屏幕内容图像的统一的内容来源自适应的盲图像质量评价算法。基于本文提出的一种新颖的受感知启发的内容来源自适应多尺度加权策略,该算法能够根据图像内容特性自适应地提取并融合多个尺度上的角点和边缘特征,从而能更好地模拟人眼在观看不同的内容时的感知特性。另一方面,本文通过分析视觉注意与质量评价之间的关系,提出了一个跨内容来源的基于显着性的半参考图像质量评价算法。该算法受两点启发,一是质量退化会造成图像底层特征的变化,从而会影响显着性检测,二是显着性检测实际上也是一种数据降维操作。所以本文通过衡量两幅图像的显着图的差异来评价图像质量,而该显着图由占用数据量极小的一种二值图像描述子来描述。在本文构建的及现有的质量评价数据库上的实验结果验证了本文提出的算法的有效性。与传统算法相比,本文提出的算法对于内容及内容来源变化展现了更强的健壮性。

张涛[9](2016)在《基于视频的场景分析和异常行为识别》文中认为近些年来,随着视频数据的快速增长,建立有效的视频可视化系统,对系统中的这些数据进行智能化的管理,成为一个急需解决的问题。最引人注目的研究是人类的视觉系统是如何迅速、准确和全面的认识和理解复杂的视觉世界。在一个视频场景中,与理解相关的内容叫做“场景分析”。在计算机视觉中,场景分析近年来取得了一些巨大的进步,尤其是在物体的分类、定位和事件检测上。另外一方面,智能监控下的的视频异常行为识别,越来越得到重视。这是由于它不仅能够节省大量的人力,而且能够解决传统视频监控的滞后性。本文从理论和实际出发,针对场景中的路标、特定场景中的遮挡人脸以及暴力行为,进行了深入的研究,并提出了行之有效的对应的解决算法。本文的主要研究内容和贡献包括以下四个方面:基于视频的路标检测在助驾系统中起着重要的作用。本文设计一个鲁棒并且快速的路标检测系统,主要提出了三级层次的检测框架,其中包括关键帧选取模块、分割模块和检测模块。在关键帧选取阶段,本文提出一种快速准确的视频关键帧选取策略。在分割模块,本文提出了基于颜色对抗性的方法来产生候选的路标区域,这种方法简单有效,可以为检测模块节省大量的时间。在检测阶段,本文修改了传统的快速的径向对称变化算法,通过引入点对的投票机制,提出改进的径向对称变换以获取更高的准确率,用基于形状的方法来处理上述产生的候选区域,以检测出正确的路标。在很多数据集上的验证实验论证了本文算法的高效性和实时性。基于ATM取款机的犯罪行为已经得到了广泛的关注。犯罪分子为了避免身份暴露故意遮挡自己的脸部。为了解决这个问题,本文提出了一种基于ATM场景下的简单快速鲁棒的人脸遮挡检测算法,这种算法能够处理任何情况下的遮挡人脸检测问题。首先本文创新性地设计了基于高斯能量函数的头部定位算法,这种算法充分利用了人体头肩部形成的轮廓特征。然后设计了基于贝叶斯框架的头部跟踪算法,该算法很好地融合了形状和直方图的信息。最后设计了基于三种颜色空间的肤色提取算法,为了更好地判别一个人脸是否异常,本文将肤色检测和人脸模板融合到Adaboost中,利用级联的优势,得到了更具有判别性的分类结果。实验结果表明本文算法可以达到98.64%的人脸检测率和98.65%的遮挡人脸验证率,整个设计的系统可以达到每秒钟12帧的处理速度。暴力检测是监控系统领域的一个热门话题,但是它相对研究的比较少。本文提出了一种快速和鲁棒的暴力检测的框架。主要的贡献包括两个方面。首先,提出了光流的高斯模型(GMOF)来提取候选的暴力区域。然后,提出一种新的描述子,也就是改进的光流方向直方图(OHOF),它是通过密采样候选的暴力区域,在多个尺度上建立一个时空特征描述子来对暴力行为进行检测。该算法不但可以检测出暴力行为,而且还能定位出暴力发生的区域。最后,实验结果论证了本文提出的算法不但具有较高的检测率,而且处理速度非常快。最后,本文从另外一个角度解决暴力检测问题。本文提出运动韦伯特征(MoWLD)和稀疏表示分类相结合的方式对视频中的暴力行为进行检测。首先,从输入视频中用高斯滤波去除一些噪声,然后再提取出MoWLD特征,紧接着,基于核密度估计的算法对原始特征进行降维处理,这样可以得到更为有效的特征。然后,本文提出改进的稀疏分类模型用于特定类字典的学习。在这个模型里面,表达约束项和系数调整项被提出用于字典的学习,使得学习的词典具备更强的判别能力。表达约束项可以控制系数的重构误差,从而更好地提高分类的准确性。系数调整项可以确保目标特征的分类误差,从而可以确保不同类的特征更加突出。因此提出的两个增加项可以使得模型具备更强的判别能力。最后相应的分类机制被提出用来对视频中的暴力行为特征进行分类。实验结果论证了本文提出的特征和模型都具备较强的判别性。

王智飞[10](2013)在《低分辨率人脸识别算法研究》文中研究说明经过四十多年的发展,人脸识别的各种算法层出不穷,从研究初期只针对单一简单背景发展到目前应对各种复杂条件,如姿态、光照、表情、噪声、遮挡、化妆、年龄、种族、性别等。尽管已有的人脸识别系统在特定约束环境下的正确识别率令人满意,但在实际环境尤其在视频监控应用中,由于监控对象的不配合及距离监控摄像头较远等问题引起图像质量较低,导致识别性能很不理想,我们把这种情形下的人脸识别统称为低分辨率人脸识别。本文针对远距离监控带来的人脸小尺寸和低质量问题,对低分辨率人脸识别算法进行系统研究,全面综述低分辨率人脸识别算法的研究现状与发展趋势,重点对分辨率稳健特征表达能力的局限性、高低分辨率统一特征空间表达能力的不足、人脸超分辨率增强与识别目标的不一致等三个关键问题进行深入研究,并提出若干新的模型和算法,为自动人脸识别系统走向实际应用提供理论依据和技术方法。本文的主要贡献如下:(1)首次对低分辨率人脸识别算法进行全面的综述。给出低分辨率人脸识别的相关概念,并从整体上归纳解决问题的系统框架和基本策略。提出超分辨率增强和分辨率稳健特征表达等两大类、面向视觉&面向识别的超分辨率增强、基于特征&基于结构的分辨率稳健特征表达等四小类的分类体系,并对代表性算法对比分析和综合评测。总结已有算法存在的问题并给出将来的研究方向。(2)提出一种基于特征的分辨率稳健特征表达算法:基于分辨率级差概率准则的图嵌入算法(FisherNPE),致力于解决分辨率稳健特征表达能力的局限性问题。所提算法包括两个重要模块:基于FisherNPE算法的特征提取模块和基于分辨率级差概率准则的特征分类模块。所提特征提取模块将线性鉴别分析(LDA)的全局描述能力和邻域保持嵌入(NPE)的局部描述能力结合,按照一定的权重因子加权形成一个新的关系权重矩阵,构建FisherNPE算法的图嵌入模型,实现分辨率稳健特征提取。所提特征分类模块创造性地引入分辨率级差的概念,构建高低分辨率样本差值图像的特征空间,并结合贝叶斯概率准则,将传统“一对一”的特征分类模式拓展到“多对多”模式,极大地提高了可用于分类的有效特征数量。实验结果表明:与LDA、NPE、BayesianFace等已有算法相比,所提算法在ORL、YALE、 CMU PIE三个数据库单一分辨率和多重分辨率上的识别性能均有较大的提升,尤其在超低分辨率上如7×6、5×5、8×8等,识别率平均提高10%。(3)提出一种基于结构的分辨率稳健特征表达算法:基于核耦合交叉回归的分辨率空间映射算法(KCCR),致力于解决高低分辨率统一特征空间表达能力的不足问题。结合核方法在描述非线性空间的强大能力和谱回归理论带来的低计算复杂度的优势,创造性地提出耦合交叉回归的思想,构建高低分辨率样本的低维嵌入与原始数据样本之间的交叉映射关系。所提算法不仅充分利用高分辨率样本之间的邻近关系,也利用了低分辨率样本之间的邻近关系,有效地提升统一特征空间的表达能力。实验结果表明:所提的CCR/KCCR及其改进算法ICCR/KICCR基于单一核和组合核在FERET和CMU PIE两个数据库上进行测试,与CLPMs、 CLDMs、KECLPMs等已有耦合映射相关算法相比,其不仅在超低分辨率如8×8的识别性能上有了较大的提升,识别率平均提高6%,更是将计算复杂度由立方级下降到平方级甚至线性级,提升了系统运行速度。(4)提出一种面向识别的人脸超分辨率增强算法:基于张量特征转换的分辨率增强算法(TET),致力于解决人脸超分辨率增强与识别目标的不一致问题,并从系统构建上考虑高分辨率人脸的获取问题。所提算法包括两个重要模块:面向分辨率增强的远距离人脸检测模块和基于张量特征转换的分辨率增强模块。所提远距离人脸检测模块结合改进肤色模型如H-SV和C’bC’r在较远距离和改进AdaBoost算法在较近距离检测上的互补优势,实现在室内环境中不同距离条件下姿态和光照稳健的人脸检测,为分辨率增强模块提供输入样本。所提分辨率增强模块利用张量分析进行特征转换,并引入奇异值分解特征,构建输入样本在高低分辨率训练样本中的组合权重分布,得到全局增强人脸,并引入残余补偿技术,构建高分辨率残余信息,实现正面视角和良好光照的人脸分辨率增强,并改善了增强图像的识别性能。此外,在室内环境中对本文所提算法(FisherNPE、KCCR、 TET)和两种代表性的算法(CLPMs和S2R2)进行综合评测,实验结果表明:本文所提算法在距离(分辨率)、光照、配准等条件变化下取得较好的性能。

二、基于MAP准则的两步人脸图像分辨率增强算法(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、基于MAP准则的两步人脸图像分辨率增强算法(论文提纲范文)

(1)面向异质人脸识别的域不变特征学习方法研究(论文提纲范文)

摘要
Abstract
常用缩略词表
第1章 绪论
    1.1 异质人脸识别问题描述
    1.2 异质人脸识别的研究意义及典型应用
        1.2.1 近红外-可见光人脸识别
        1.2.2 3D-2D人脸识别
        1.2.3 素描-照片人脸识别
    1.3 异质人脸识别研究现状及挑战
    1.4 本文主要研究内容与贡献
    1.5 本文结构
第2章 异质人脸识别简述
    2.1 引言
    2.2 异质人脸识别问题分析及建模
    2.3 异质人脸识别与多模态人脸识别的区别
    2.4 异质人脸识别方法简述
        2.4.1 基于图像合成的方法
        2.4.2 基于特征表示的方法
        2.4.3 基于子空间学习的方法
        2.4.4 基于混合学习的方法
    2.5 异质人脸识别评价体系
        2.5.1 常用异质人脸识别数据库
        2.5.2 常用异质人脸识别性能指标
    2.6 本章小结
第3章 基于对抗特征学习的异质人脸识别
    3.1 引言
    3.2 相关研究基础介绍
        3.2.1 域自适应
        3.2.2 深度度量学习
    3.3 提出的方法
        3.3.1 问题描述
        3.3.2 域对齐
        3.3.3 基于四元组的类对齐
        3.3.4 总体损失函数
        3.3.5 网络架构
    3.4 实验结果与分析
        3.4.1 实验设置
        3.4.2 数据库和相关协议
        3.4.3 CASIA NIR-VIS2.0数据库上的实验结果
        3.4.4 Oulu-CASIA NIR&VIS数据库上的实验结果
        3.4.5 BUAA-Vis Nir数据库上的实验结果
        3.4.6 IIIT-D Viewed Sketch数据库上的实验结果
        3.4.7 消融实验
    3.5 本章小结
第4章 基于特征解耦的异质人脸识别
    4.1 引言
    4.2 相关理论基础介绍
        4.2.1 解耦表示
        4.2.2 深度互信息
    4.3 提出的方法
        4.3.1 问题描述
        4.3.2 基于注意力的残差分解
        4.3.3 对抗去相关
        4.3.4 多任务学习
    4.4 实验结果与分析
        4.4.1 实验设置
        4.4.2 数据库和相关协议
        4.4.3 CASIA NIR-VIS2.0数据库上的实验结果
        4.4.4 Oulu-CASIA NIR&VIS数据库上的实验结果
        4.4.5 BUAA-Vis Nir数据库上的实验结果
        4.4.6 IIIT-D Viewed Sketch数据库上的实验结果
        4.4.7 消融实验
    4.5 本章小结
第5章 室外无约束场景的3D-2D人脸识别
    5.1 引言
    5.2 三维人脸模型与二维人脸图像转换方法
        5.2.1 二维图像生成三维人脸模型的方法
        5.2.2 三维人脸模型生成二维图像的方法
    5.3 算法验证
        5.3.1 数据集和相关协议
        5.3.2 实验结果
    5.4 室外无约束场景下的3D-2D数据库构建
        5.4.1 WS3D-2D数据采集
        5.4.2 WS3D-2D数据库详情
    5.5 改进的方法
        5.5.1 问题描述
        5.5.2 姿态解耦
        5.5.3 四元组样本选择
        5.5.4 总体损失函数
        5.5.5 网络结构
    5.6 实验结果与分析
        5.6.1 实验设置
        5.6.2 数据集和相关协议
        5.6.3 三维注册人脸模型投影方案分析
        5.6.4 不同比对方案分析
        5.6.5 不同模型性能比对分析
        5.6.6 消融实验
    5.7 3D-2D人脸识别应用
    5.8 本章小节
第6章 总结与展望
    6.1 本文工作总结
    6.2 展望
参考文献
攻读学位期间取得的研究成果
致谢

(2)城市道路交通不良驾驶行为视频图像智能识别研究(论文提纲范文)

摘要
abstract
1 绪论
    1.1 课题研究背景与意义
    1.2 国内外研究现状
        1.2.1 基于视觉的驾驶行为图像监测数据集研究现状
        1.2.2 驾驶行为视频图像特征提取方式研究现状
        1.2.3 卷积神经网络在图像处理中的应用
    1.3 论文主要内容及组织结构
2 不良驾驶行为图像识别模型及相关技术介绍
    2.1 卷积神经网络基础知识
        2.1.1 卷积神经网络的基本组成
        2.1.2 卷积神经网络中的训练配置
    2.2 可分离卷积介绍
        2.2.1 空间可分离卷积
        2.2.2 深度可分离卷积
    2.3 迁移学习
        2.3.1 迁移学习的定义与分类
        2.3.2 深度迁移学习
        2.3.3 深度迁移学习中的微调
    2.4 本章小结
3 基于卷积神经网络迁移学习的驾驶行为图像识别
    3.1 主流轻量级CNN模型
        3.1.1 基于人工设计的轻量级卷积神经网络模型
        3.1.2 基于模型压缩技术的轻量级卷积神经网络模型
        3.1.3 基于神经架构搜索的轻量级卷积神经网络模型
    3.2 基于深度迁移学习的驾驶行为图像识别实验
        3.2.1 驾驶行为图像识别实验数据集分析
        3.2.2 实验环境
        3.2.3 模型的训练配置
        3.2.4 实验设置
    3.3 实验结果对比与分析
        3.3.1 实验1:基准模型的分析
        3.3.2 实验2:主流轻量级CNN模型分析
        3.3.3 实验3:Efficient Net-B0 模型输入图像尺度分析
        3.3.4 实验4:CNN模型的混淆矩阵分析
        3.3.5 实验5:CNN模型的关键特征可视化分析
    3.4 本章小结
4 基于正则化技术和知识蒸馏的驾驶行为图像识别
    4.1 基于图像数据增强的正则化技术
        4.1.1 cutout数据增强
        4.1.2 mixup数据增强
        4.1.3 cutmix数据增强
    4.2 基于知识蒸馏的模型压缩技术
        4.2.1 基于教师-学生模型的知识蒸馏
        4.2.2 基于无教师模型的知识蒸馏
        4.2.3 基于人工设计正则化类别概率分布的知识蒸馏
    4.3 基于正则化技术和知识蒸馏的驾驶行为图像识别实验
        4.3.1 基于图像数据增强的驾驶行为图像识别实验
        4.3.2 基于知识蒸馏的驾驶行为图像识别实验
        4.3.3 基于mixup数据增强与知识蒸馏结合的驾驶行为图像识别实验
    4.4 总体实验结果对比与分析
        4.4.1 不同实验方法对比分析
        4.4.2 基于混淆矩阵对比分析
        4.4.3 基于模型关键特征可视化对比分析
    4.5 模型移动端部署实现
    4.6 本章小结
5 总结与展望
    5.1 总结
    5.2 展望
参考文献
致谢

(3)基于生成对抗网络的人脸超分辨率算法研究(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究工作的背景与意义
    1.2 国内外研究现状
        1.2.1 生成对抗网络的研究现状
        1.2.2 超分辨率算法研究现状
        1.2.3 人脸图像超分辨率算法研究现状
    1.3 本文的主要研究内容
    1.4 本论文的结构安排
第二章 超分辨率理论基础及相关技术
    2.1 超分辨率重建基础理论模型
    2.2 超分辨率重建技术
        2.2.1 基于插值的方法
        2.2.2 基于重建的方法
        2.2.3 基于学习的方法
    2.3 图像质量评价
        2.3.1 客观评价指标
        2.3.2 主观评价指标
    2.4 深度学习概述
        2.4.1 卷积神经网络
        2.4.2 生成对抗网络
        2.4.3 常用的深度学习框架
    2.5 本章小结
第三章 基于卷积神经网络的人脸超分辨重建算法研究
    3.1 基于注意力机制的卷积神经网络人脸超分辨率算法
        3.1.1 卷积神经网络
        3.1.2 注意力机制
        3.1.3 网络结构
        3.1.4 网络设计模块
        3.1.5 损失函数
    3.2 基于注意力机制的人脸超分辨算法实验设计
        3.2.1 数据集
        3.2.2 数据处理
        3.2.3 训练细节
    3.3 实验结果与分析
        3.3.1 重建人脸质量对比
        3.3.2 对比实验
    3.4 本章小结
第四章 基于注意力机制的生成对抗网络人脸超分辨率算法研究
    4.1 生成对抗网络算法概述
        4.1.1 生成对抗网络结构
        4.1.2 改进的生成对抗网络
        4.1.3 生成对抗网络中的几种激活函数
        4.1.4 谱归一化
    4.2 基于空间注意力机制的人脸超分辨率算法
        4.2.1 生成器结构
        4.2.2 判别器结构
        4.2.3 损失函数
    4.3 实验设计
        4.3.1 数据处理
        4.3.2 训练细节
    4.4 实验结果与分析
        4.4.1 重建人脸图像的质量评价
        4.4.2 超分辨率人脸图像在人脸识别算法中的表现
    4.5 本章小结
第五章 全文总结与展望
    5.1 全文总结
    5.2 后续工作展望
致谢
参考文献
攻读硕士学位期间取得的成果

(4)基于多分辨率技术的图像修复方法研究(论文提纲范文)

摘要
abstract
专用术语注释表
第一章 绪论
    1.1 研究背景与意义
    1.2 国内外研究现状
    1.3 研究内容及贡献
    1.4 论文组织结构
第二章 基于样本块尺度自适应选择的图像修复方法
    2.1 问题的提出
    2.2 样本块尺度自适应选择
        2.2.1 图像填补顺序
        2.2.2 样本块大小的自适应计算
        2.2.3 置信度的计算
    2.3 实验结果与分析
        2.3.1 评价指标
        2.3.2 参数设置
        2.3.3 实验结果
    2.4 本章小结
第三章 基于多分辨率技术的分层图像修复方法
    3.1 概述
    3.2 基于整体引导式分层修复算法
        3.2.1 金字塔分解
        3.2.2 整体引导式分层修复框架
        3.2.3 基于样本块的顶层修复
        3.2.4 分层引导的其它层修复
        3.2.5 实验结果与分析
    3.3 基于筛网型引导式分层修复方法
        3.3.1 筛网型引导式分层修复框架
        3.3.2 顶层图像的修复
        3.3.3 其它层图像的修复
        3.3.4 最优候选块的选择
        3.3.5 实验结果与分析
    3.4 本章小结
第四章 基于多分辨率图像特征和图割技术相结合的图像修复方法
    4.1 引言
    4.2 基于多分辨率图像特征的优先权计算
    4.3 多分辨率图像资源的搜索
    4.4 候选样本块筛选策略
    4.5 基于图割的填补
    4.6 实验结果与分析
    4.7 本章小结
第五章 基于深度卷积生成对抗网络的图像修复方法
    5.1 生成对抗网络
    5.2 基于邻域梯度约束的生成对抗网络
        5.2.1 内容损失
        5.2.2 梯度损失
        5.2.3 先验损失
        5.2.4 DCGAN-NGC修复算法过程
        5.2.5 实验结果与分析
        5.2.6 讨论
    5.3 本章小结
第六章 总结与展望
    6.1 论文总结
    6.2 工作展望
参考文献
附录1 攻读博士学位期间撰写的论文
附录2 攻读博士学位期间申请的专利
附录3 攻读博士学位期间主持和参与的科研项目
附录4 攻读博士学位期间获得的成果奖
致谢

(5)用于低质量医疗图像分割的表示学习(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 医疗图像分割的研究背景及意义
        1.1.1 图像分割及其在医疗图像分析中的价值
        1.1.2 医疗图像的特性与分割难点
        1.1.3 表示学习及其对于图像分割的重要意义
    1.2 用于医疗图像分割的表示学习研究进展
        1.2.1 图像分割的基本流程
        1.2.2 表示学习用于低对比度医疗图像语义分割
        1.2.3 表示学习用于医疗图像实例分割
        1.2.4 表示学习用于无监督医疗图像分割
    1.3 研究内容及篇章结构
        1.3.1 主要研究内容
        1.3.2 篇章结构
第二章 用于低对比度医疗图像分割的高分辨率神经网络研究
    2.1 引言
    2.2 相关工作
    2.3 提出的方法
        2.3.1 多尺度语义信息通路
        2.3.2 高分辨率语义信息通路
        2.3.3 基于多任务融合的边界强化机制
        2.3.4 分割难度引导的交叉熵误差设计
    2.4 实验与结果分析
        2.4.1 数据介绍和实现细节
        2.4.2 网络有效性的消融性验证
        2.4.3 语义信息分辨率与网络复杂度的权衡
        2.4.4 同领域先进算法的性能比较
        2.4.5 神经网络通用性验证
    2.5 本章小结
第三章 针对医疗图像的判别性深度监督实例分割神经网络
    3.1 引言
    3.2 相关工作
        3.2.1 基于检测框的实例分割算法
        3.2.2 不基于检测框的实例分割算法
        3.2.3 深度监督学习机制
    3.3 提出的方法
        3.3.1 多通路全卷积神经网络
        3.3.2 层次化边界检测机制
        3.3.3 深度判别性监督模块
        3.3.4 网络误差函数
    3.4 实验与结果分析
        3.4.1 网络的实现细节
        3.4.2 网络结构有效性的消融分析
        3.4.3 与先进算法的性能比较
        3.4.4 网络结构有效性的机理性验证
        3.4.5 竞赛结果展示
    3.5 本章小结
第四章 用于无监督医疗图像分割表示学习的多核子空间聚类算法
    4.1 引言
    4.2 相关工作
        4.2.1 多核聚类算法
        4.2.2 子空间分割算法
    4.3 提出的方法
        4.3.1 基于子空间分割的多核聚类模型
        4.3.2 多核聚类模型优化算法
        4.3.3 算法的时间复杂度分析
    4.4 实验与结果分析
        4.4.1 评价指标与参数选择
        4.4.2 人造数据集上算法的性能验证
        4.4.3 标准数据集上算法的性能验证
        4.4.4 算法收敛性和参数敏感性验证
    4.5 本章小结
第五章 用于无监督分割的多邻居核子空间聚类算法
    5.1 引言
    5.2 相关工作
    5.3 提出的方法
        5.3.1 邻居核的构建
        5.3.2 多邻居核子空间聚类模型
        5.3.3 子空间聚类优化算法
        5.3.4 精确秩约束回归问题解的最优性证明及其物理意义的解释
        5.3.5 算法收敛性、复杂度与敏感性分析
        5.3.6 算法计算复杂度分析
    5.4 实验与结果分析
        5.4.1 关于邻居核有效性的验证
        5.4.2 同现有先进算法的比较
        5.4.3 收敛性和敏感性验证
        5.4.4 邻居核的普适性验证
    5.5 本章小结
第六章 用于无监督分割后期融合的最优拉普拉斯矩阵谱聚类算法
    6.1 引言
    6.2 相关工作
        6.2.1 基于线性拉普拉斯矩阵组合的多视图谱聚类算法
        6.2.2 基本概念
    6.3 提出的方法
        6.3.1 高阶拉普拉斯矩阵的定义
        6.3.2 最优邻居拉普拉斯谱聚类模型
        6.3.3 最优邻居拉普拉斯谱聚类模型优化算法
        6.3.4 算法收敛性、敏感性与复杂度分析
    6.4 实验与结果分析
        6.4.1 数据集与实验设置
        6.4.2 算法有效性的消融验证
        6.4.3 与现有先进算法的比较
        6.4.4 算法收敛性和参数敏感性验证
        6.4.5 向大规模数据集的扩展
        6.4.6 分割结果展示
    6.5 本章小结
第七章 总结与展望
    7.1 全文总结
    7.2 未来展望
致谢
参考文献
作者在学期间取得的学术成果

(6)低分辨率场景下的人脸识别系统的设计与实现(论文提纲范文)

摘要
Abstract
英文缩略词表
第一章 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
        1.2.1 基于插值的方法
        1.2.2 基于重建的方法
        1.2.3 基于学习的方法
    1.3 论文主要研究内容
    1.4 论文组织结构
第二章 相关技术介绍
    2.1 低分辨率场景概述
    2.2 人脸检测技术
    2.3 超分辨率重建技术
        2.3.1 基于插值的图像超分辨率重建算法
        2.3.2 基于学习的图像超分辨率重建算法
    2.4 特征提取技术
    2.5 本章小结
第三章 低分辨率场景下人脸识别系统的设计
    3.1 需求分析
        3.1.1 系统功能需求分析
        3.1.2 非功能性需求分析
    3.2 概要设计
        3.2.1 低分辨率人脸识别方案设计
        3.2.2 系统功能模块总体设计
    3.3 系统总体架构设计
    3.4 本章小结
第四章 低分辨率场景下人脸超分辨率重建算法设计
    4.1 基于生成对抗网络的超分辨率算法
    4.2 基于生成对抗网络改进的超分辨率重建算法
    4.3 增强人脸特征超分辨率重建方法
        4.3.1 人脸特征点检测
        4.3.2 特征区域图像的分割
        4.3.3 增强人脸特征超分辨率重建算法
        4.3.4 图像拼接
    4.4 实验数据及图像质量标准评价
        4.4.1 实验数据来源及其处理
        4.4.2 图像质量评价标准
    4.5 实验结果对比及分析
        4.5.1 实验目的及实验环境
        4.5.2 实验参数
        4.5.3 实验结果
    4.6 本章小结
第五章 系统功能模块详细设计与实现
    5.1 视频显示处理模块详细设计与实现
        5.1.1 视频处理模块的详细设计
        5.1.2 工程实现
    5.2 人脸检测模块详细设计与实现
        5.2.1 MTCNN算法模型简介
        5.2.2 工程实现
        5.2.3 实验结果与分析
    5.3 人脸超分辨率重建模块详细设计与实现
    5.4 人脸特征提取及特征比对模块详细设计与实现
        5.4.1 基于ResNet的人脸特征提取网络
        5.4.2 损失函数
        5.4.3 特征比对
        5.4.4 工程实现
        5.4.5 实验结果与分析
    5.5 人脸信息管理模块详细设计与实现
        5.5.1 数据库模块实现
        5.5.2 系统交互界面实现
        5.5.3 人脸信息管理交互界面
    5.6 本章小结
第六章 系统测试
    6.1 测试环境
    6.2 系统功能测试
        6.2.1 人脸识别系统功能测试
        6.2.2 人脸信息管理模块功能测试
    6.3 系统非功能性测试
    6.4 本章小结
第七章 总结与展望
    7.1 总结
    7.2 展望
致谢
参考文献
硕士阶段发表论文清单

(7)跨摄像机行人再识别中度量学习算法研究(论文提纲范文)

致谢
摘要
ABSTRACT
1 绪论
    1.1 研究背景和意义
    1.2 国内外研究现状
        1.2.1 基于特征表示的研究方法
        1.2.2 基于度量学习的研究方法
        1.2.3 基于深度学习的研究方法
    1.3 目前存在的主要问题
    1.4 论文主要研究工作与章节安排
        1.4.1 论文研究工作
        1.4.2 论文章节安排
2 行人再识别研究的相关知识
    2.1 特征介绍
        2.1.1 颜色特征
        2.1.2 纹理特征
        2.1.3 形状和关键点特征
        2.1.4 颜色名称
        2.1.5 属性特征
    2.2 度量学习
        2.2.1 问题定义
        2.2.2 度量学习的分类
        2.2.3 几种常见的度量学习算法
        2.2.4 度量学习中的过拟合问题
    2.3 深度学习
    2.4 行人再识别的基础知识
        2.4.1 问题表述与基本流程
        2.4.2 评价标准
    2.5 常用的行人再识别数据库
        2.5.1 基于图像的行人再识别数据库
        2.5.2 基于视频的行人再识别数据库
    2.6 本章内容总结
3 基于等距映射的局部Fisher判别分析的度量学习算法研究
    3.1 等距映射LFDA算法GeoPLFDA
        3.1.1 LFDA算法简介
        3.1.2 等距映射GeoPLFDA算法
    3.2 实验结果与分析
        3.2.1 实验设置
        3.2.2 与其他方法的对比
        3.2.3 分析与讨论
    3.3 本章小结
4 基于查询图像自适应权重和多任务学习的多度量学习算法
    4.1 算法框架
        4.1.1 多度量学习
        4.1.2 度量矩阵学习
        4.1.3 查询图像自适应权重学习
        4.1.4 基于多任务学习的权重学习策略
    4.2 实验结果与分析
        4.2.1 实验设置
        4.2.2 与其他方法的对比
        4.2.3 分析与讨论
    4.3 本章小结
5 跨视角子空间学习算法研究
    5.1 基于多特征融合的跨视角子空间学习算法
        5.1.1 典型相关分析CCA与KCCA
        5.1.2 多特征融合
        5.1.3 实验结果与分析
    5.2 基于自训练的半监督跨视角子空间学习算法
        5.2.1 两个视角的情形
        5.2.2 扩展到多个视角的情形
        5.2.3 实验结果与分析
    5.3 本章小结
6 基于上下文相似性和内容互相相似性的重排序算法
    6.1 算法框架
        6.1.1 初始排序列表
        6.1.2 扩展交叉邻域
        6.1.3 上下文相似度
        6.1.4 内容互相相似度
        6.1.5 最终相似度分数
    6.2 实验结果与分析
        6.2.1 实验设置
        6.2.2 与其他方法的对比
        6.2.3 实验结果分解分析
        6.2.4 参数分析
    6.3 本章小结
7 总结与展望
    7.1 本文研究成果总结
    7.2 未来展望
参考文献
作者简历及攻读博士学位期间取得的研究成果
学位论文数据集

(8)基于感知特性的多媒体体验质量研究(论文提纲范文)

摘要
abstract
缩略语对照表
第一章 绪论
    1.1 课题的研究背景及意义
    1.2 课题的研究现状
        1.2.1 视觉质量评价
        1.2.2 视觉注意预测
        1.2.3 视觉注意与质量评价
    1.3 本文的研究工作和内容组织
        1.3.1 研究工作
        1.3.2 内容组织
        1.3.3 章节关联
第二章 基于底层视觉注意特性的质量评价
    2.1 引言
        2.1.1 现有纳入音频信息的视觉注意研究
        2.1.2 现有纳入人脸信息的视觉注意研究
        2.1.3 现有基于视觉注意的质量评价研究
    2.2 纳入音频信息的视觉注意预测
        2.2.1 听觉注意建模
        2.2.2 视觉注意建模
        2.2.3 视听注意融合
        2.2.4 实验验证
    2.3 纳入人脸信息的视觉注意预测
        2.3.1人脸图像的眼动实验
        2.3.2 人脸图像的视觉注意分析
        2.3.3 人脸图像的视觉注意预测
        2.3.4 实验验证
    2.4 基于视觉注意的质量评价
        2.4.1自然图像的眼动实验
        2.4.2 基于视觉注意加权的质量评价
        2.4.3 实验验证
    2.5 小结
第三章 基于中层失真感知特性的质量评价
    3.1 引言
        3.1.1 现有针对特定失真的盲图像质量评价算法
        3.1.2 现有通用盲图像质量评价算法
    3.2 基于最大失真图像的视觉质量评价框架
    3.3 基于最大失真图像的盲质量评价算法
        3.3.1 基于最大失真图像的块效应评价算法
        3.3.2 基于最大失真图像的锐度及噪度评价算法
        3.3.3 基于最大失真图像的通用盲质量评价算法
        3.3.4 实验验证
    3.4 基于多级失真强化图像的盲质量评价算法
        3.4.1 多级失真强化图像生成
        3.4.2 局部二值模式特征提取及相似性度量
        3.4.3 特征回归
        3.4.4 实验验证
    3.5 小结
第四章 基于高层内容感知特性的跨内容来源质量评价
    4.1 引言
        4.1.1 现有跨内容来源的质量评价研究
        4.1.2 现有视觉注意在质量评价中的利用方式
    4.2 图像内容来源自适应的盲压缩图像质量评价算法
        4.2.1 自然场景,计算机图形及屏幕内容图像的主观质量评价
        4.2.2 图像内容来源自适应算法—多尺度角点及边缘特征提取
        4.2.3 图像内容来源自适应算法—内容来源自适应的多尺度加权
        4.2.4 实验验证
    4.3 基于显着性的跨内容来源半参考质量评价算法
        4.3.1 基于显着性检测的半参考特征提取
        4.3.2 显着性特征相似性度量
        4.3.3 针对对比度和亮度变化的质量校正
        4.3.4 实验验证
    4.4 小结
全文总结
参考文献
致谢
攻读学位期间发表的学术论文

(9)基于视频的场景分析和异常行为识别(论文提纲范文)

摘要
abstract
缩略词对照表
第一章 绪论
    1.1 研究背景及意义
        1.1.1 基于视频的路标检测
        1.1.2 异常人脸检测
        1.1.3 暴力检测
    1.2 国内外相关技术的研究现状
        1.2.1 路标检测
        1.2.2 异常人脸检测
        1.2.3 暴力检测
    1.3 论文的结构及主要贡献
第二章 基于视频的场景路标检测
    2.1 引言
    2.2 关键帧提取算法
    2.3 基于颜色对抗性的路标区域分割
    2.4 路标检测
        2.4.1 检测的初始化
        2.4.2 传统的径向对称变换
        2.4.3 改进的径向对称变换
    2.5 实验结果和分析
        2.5.1 图像分割结果
        2.5.2 路标的检测结果
        2.5.3 检测结果图
    2.6 本章小结
第三章 ATM监控场景下的异常人脸识别
    3.1 引言
    3.2 前景提取算法
    3.3 头部检测算法
        3.3.1 头部区域检测算法
        3.3.2 基于势能的头部定位算法
        3.3.3 头部下巴定位和噪声去除
    3.4 头部跟踪
        3.4.1 视频跟踪算法
        3.4.2 基于贝叶斯框架的头部跟踪
    3.5 人脸异常判别算法
        3.5.1 遮挡验证算法
        3.5.2 肤色检测
        3.5.3 人脸模板匹配
    3.6 实验结果与分析
        3.6.1 实验设置
        3.6.2 头部检测的实验结果
        3.6.3 头部跟踪的实验验证
        3.6.4 人脸遮挡的实验结果
    3.7 本章小结
第四章 基于光流高斯模型的视频暴力检测
    4.1 引言
    4.2 相关工作介绍
    4.3 提取候选的暴力区域
    4.4 暴力验证
        4.4.1 多尺度扫描窗技术
        4.4.2 光流方向直方图(OHOF)描述子
    4.5 实验结果和分析
        4.5.1 数据集
        4.5.2 实验设置
        4.5.3 结果和分析
    4.6 本章小结
第五章 基于稀疏分类和运动韦伯特征的暴力检测
    5.1 引言
    5.2 运动韦伯(MoWLD)特征提取
        5.2.1 传统的WLD
        5.2.2 改进后的WLD
        5.2.3 运动韦伯描述子(MoWLD)
        5.2.4 多尺度的MoWLD
    5.3 稀疏分类模型和字典学习
        5.3.1 引言
        5.3.2 原始的SRC模型
        5.3.3 提出的模型
        5.3.4 有监督的特定类的字典学习
        5.3.5 分类机制
    5.4 实验结果和分析
        5.4.1 数据集
        5.4.2 实验设置
        5.4.3 在Hockey Fight数据集上的结果
        5.4.4 在BEHAVE数据集上的结果
        5.4.5 在Crowd Violence数据集上的结果
    5.5 本章小结
第六章 本文工作总结与展望
    6.1 本文工作总结
    6.2 未来工作展望
参考文献
攻读学位期间发表的学术论文目录
致谢
攻读学位期间参与的项目

(10)低分辨率人脸识别算法研究(论文提纲范文)

致谢
摘要
ABSTRACT
1 绪论
    1.1 选题背景及意义
    1.2 低分辨率人脸识别研究现状
        1.2.1 人脸识别中的低分辨率问题
        1.2.2 研究现状概述
    1.3 存在的问题及发展方向
    1.4 论文的主要内容及章节安排
        1.4.1 主要内容
        1.4.2 章节安排
2 低分辨率人脸识别概述
    2.1 引言
    2.2 低分辨率人脸识别系统概述
        2.2.1 基本概念
        2.2.2 系统框架
    2.3 低分辨率人脸识别算法分类
    2.4 超分辨率增强用于低分辨率人脸识别
        2.4.1 面向视觉的超分辨率增强
        2.4.2 面向识别的超分辨率增强
    2.5 分辨率稳健特征表达用于低分辨率人脸识别
        2.5.1 基于特征的方法
        2.5.2 基于结构的方法
    2.6 低分辨率人脸识别算法评测
    2.7 本章小结
3 基于分辨率级差概率准则的图嵌入算法
    3.1 引言
    3.2 图嵌入框架
        3.2.1 拉普拉斯特征映射算法
        3.2.2 图嵌入框架及其线性扩展
    3.3 基于FisherNPE算法的特征提取
        3.3.1 线性鉴别分析算法
        3.3.2 邻域保持嵌入算法
        3.3.3 FisherNPE算法
    3.4 基于分辨率级差概率准则的特征分类
        3.4.1 基于贝叶斯概率准则的分类
        3.4.2 基于分辨率级差空间的概率估计
    3.5 实验分析
        3.5.1 测试数据库的描述
        3.5.2 分辨率对已有图嵌入算法的影响分析
        3.5.3 单一分辨率分类测试
        3.5.4 多重分辨率分类测试
    3.6 本章小结
4 基于核耦合交叉回归的分辨率空间映射算法
    4.1 引言
    4.2 耦合映射相关算法
        4.2.1 耦合局部保持映射算法
        4.2.2 耦合线性鉴别映射算法
        4.2.3 核嵌入耦合局部保持映射算法
    4.3 核耦合交叉回归相关算法
        4.3.1 耦合交叉回归的基本模型
        4.3.2 耦合交叉回归的核化扩展
        4.3.3 核耦合交叉回归的改进模型
        4.3.4 耦合谱回归的拓展应用
        4.3.5 算法基本步骤
    4.4 实验分析
        4.4.1 测试数据库的描述
        4.4.2 模型参数的学习与选择
        4.4.3 耦合交叉回归相关算法测试
        4.4.4 耦合映射相关算法综合测试
        4.4.5 算法复杂度分析与测试
    4.5 本章小结
5 基于张量特征转换的分辨率增强算法
    5.1 引言
    5.2 面向分辨率增强的远距离人脸检测算法
        5.2.1 基于H-SV和C'bC'r的二阶高斯混合肤色模型
        5.2.2 AdaBoost改进算法
        5.2.3 远距离人脸检测框架
    5.3 基于张量特征转换的分辨率增强算法
        5.3.1 张量分析相关算法
        5.3.2 张量特征转换增强算法
        5.3.3 基于奇异值分解特征的张量特征转换增强算法
    5.4 实验分析
        5.4.1 远距离人脸检测实验
        5.4.2 人脸分辨率增强实验
        5.4.3 基于人脸分辨率增强图像的识别实验
    5.5 基于实际环境的算法综合评测
        5.5.1 算法评测说明及设置
        5.5.2 算法评测结果及分析
    5.6 本章小结
6 总结与展望
    6.1 工作总结
    6.2 未来展望
参考文献
作者简介
攻读博士学位期间取得的学术成果
学位论文数据集

四、基于MAP准则的两步人脸图像分辨率增强算法(论文参考文献)

  • [1]面向异质人脸识别的域不变特征学习方法研究[D]. 杨善敏. 四川大学, 2021(01)
  • [2]城市道路交通不良驾驶行为视频图像智能识别研究[D]. 符永胜. 海南大学, 2021(11)
  • [3]基于生成对抗网络的人脸超分辨率算法研究[D]. 艾文杰. 电子科技大学, 2021(01)
  • [4]基于多分辨率技术的图像修复方法研究[D]. 刘华明. 南京邮电大学, 2020
  • [5]用于低质量医疗图像分割的表示学习[D]. 周思航. 国防科技大学, 2019(01)
  • [6]低分辨率场景下的人脸识别系统的设计与实现[D]. 肖康. 东南大学, 2019(01)
  • [7]跨摄像机行人再识别中度量学习算法研究[D]. 贾洁茹. 北京交通大学, 2019(01)
  • [8]基于感知特性的多媒体体验质量研究[D]. 闵雄阔. 上海交通大学, 2018(01)
  • [9]基于视频的场景分析和异常行为识别[D]. 张涛. 上海交通大学, 2016(03)
  • [10]低分辨率人脸识别算法研究[D]. 王智飞. 北京交通大学, 2013(01)

标签:;  ;  ;  ;  ;  

基于MAP准则的两步人脸图像分辨率增强算法
下载Doc文档

猜你喜欢