视点合成论文_余芳,安平,严徐乐

导读:本文包含了视点合成论文开题报告文献综述、选题提纲参考文献及外文文献翻译,主要关键词:视点,视频,深度,图像,空洞,视差,自由。

视点合成论文文献综述

余芳,安平,严徐乐[1](2019)在《基于显着性信息和视点合成预测的3D-HEVC编码方法》一文中研究指出传统的视频编码标准大多着重从减少信息冗余来提高率失真性能,而忽视了人类视觉系统(human visual system, HVS)多样性对视频编码的影响.针对目前先进的3D高效率视频编码(high efficiency video coding, HEVC)技术,提出了一种融合人眼视觉特性的编码方法.首先建立3D显着性模型,根据显着性信息进行分区域编码;然后对原有的视点合成预测算法进行改进,避免深度块的边界效应;最后绘制生成新视点的视频.实验结果证明,该方法在保证主观质量基本不变的情况下, BD-rate可下降10%左右,绘制生成的新视点峰值信噪比(peak signal to noise ratio, PSNR)可提高0.1 dB左右,能有效提高编码效率.(本文来源于《上海大学学报(自然科学版)》期刊2019年05期)

刘隆国[2](2019)在《基于深度图像的虚拟视点合成技术研究与优化》一文中研究指出在叁维视频编码传输与视点合成技术当中引入深度图像的举措,标志着叁维电视真正意义上从传统3D-TV到FTV的转变,因为它允许用户随心所欲地改变观看视点,从而给人更加真实的叁维沉浸与立体感。相比较传统的3D-TV,基于深度图像的视点合成技术(Depth-Image-Based Rendering,DIBR)不需要编码与传输大量的多视点视频数据,而只需要采集获取有限几个视点的纹理和深度图像,在相机参数已知的条件下,利用视点合成技术,在叁维空间映射合成得到其它多个视点的图像。由于该技术运算速度快,且合成质量高,目前已被国际3D-HEVC(Three Dimensional High Efficiency Video Coding)和国内AVS2-P2-3D等国内外叁维视频编解码技术标准采用。然而,该技术依然会在合成视点中产生大量的空洞,且合成过程非常依赖深度图像的准确性。不适当的填充方法将使得合成视点出现区块性噪声,而不准确的深度图将在合成视点物体边界造成前景腐蚀或者背景噪声,极大影响观众的观赏体验。因此,如何更准确地填补空洞,如何修正深度图像使合成视点质量更好,成为本文研究的主要内容。针对以上提出的两点问题,本文的研究与主要的优化工作内容如下,优化主要在国内的AVS2-P2-3D参考软件RFD的VSS中进行:1.深度边界检测与空洞扩充技术改进:VSS软件中采用双值边界标定深度图像边界,标记的边界像素不参与映射,本文实验发现,采用单值标定效果更好;参考软件为了去除深度边界噪声采用空洞扩充技术,然而该方法也导致丢失大量原始像素,导致合成视点质量下降,本文建议关闭此技术。2.空洞周边及被遮挡背景像素的空洞填补:本技术对AVS2-3D参考软件RFD6.01中的视点合成参考软件VSS中的空洞填补技术进行改进。根据空洞的原理和机制,部分空洞由于视间偏移量较大,导致背景像素被前景完全遮挡,使得空洞左右两边不存在背景像素。本文针对这类空洞提出一种新的填补方案:利用空洞周围以及在映射过程中被遮挡的背景像素作为填充模板。实验过程中发现,当前通测序列所给出的深度图像极不准确,由此本文引入了左右参考视点相互映射参考的方法作为判定当前深度图像准确度的依据。若深度图准确,那么应用本文所提出的技术;如果深度图像不准确,则保持原有技术不变。3.基于MRF的深度图像滤波技术:实验表明,通测序列深度图像在边界处存在大量噪声,影响合成虚拟视点质量。本文提出一种基于MRF(Markov Random Field,MRF)的深度图像滤波方法,利用Mean shift和SLIC(Simple Linear Iterative Cluster,SLIC)的分割块建立MRF模型,对深度图像进行滤波。实验结果显示,利用滤波后的深度图像进行视点合成,合成质量有显着提升。(本文来源于《电子科技大学》期刊2019-03-20)

李晗[3](2019)在《基于DIBR视点合成的空洞填充方法》一文中研究指出基于深度图像的渲染(DIBR)技术3D视频合成中常见的一种方法。提出一种基于背景重构的孔洞填充方法,利用二维视频及其深度图的时间相关信息来构造背景视频。使用该方法创建完整的背景视频,检测和移除前景对象。此外,应用运动补偿使背景重建模型适合于运动摄像机场景。每个帧被投影到当前的平面上,执行高斯混合模型。构造的背景视频用于消除合成视频中的空洞。实验结果表明,与其他方法相比,该方法具有更好的合成3D视频的质量。(本文来源于《现代计算机(专业版)》期刊2019年01期)

贾博奇,张梦诗,梁楠,武博,张楠[4](2018)在《基于可伸缩窗视差生成的开放手术视频虚拟视点合成算法》一文中研究指出目的本文为了提高开放手术视频的视差图质量,减少虚拟视点中空洞,提升虚拟视点主观质量,提出基于可伸缩窗视差生成的虚拟视点合成算法,为医学专家和医学生获得身临其境的手术示教和手术指导提供了可能。方法根据场景内容特点确定匹配窗口大小并进行立体匹配,生成手术场景视差信息;基于深度绘制原理,针对手术场景的特性填充空洞,获得手术场景虚拟视点图像,并对虚拟视点的主观质量进行评估。结果与固定窗方法相比较,本文算法生成的虚拟视点图像中术野内物体边缘较光滑,存在较少伪影。结论本文算法生成的手术虚拟视点视频取得了较高的主观质量,为观看者提供了更好的观看体验。(本文来源于《北京生物医学工程》期刊2018年06期)

邓增明[5](2018)在《基于深度信息的虚拟视点合成方法研究》一文中研究指出自由视点视频可以向观看者提供任意的观看角度和位置,因此具有非常出色的人机交互体验和观看浸入感,被认为是未来数字电视的主要发展方向之一。自由视点视频可以广泛应用于体育赛事转播、文艺演出、互动课程等娱乐与教育行业,也可以应用于临床手术、军事战略研究等社会工作与国防科技领域。自由视点视频的发展能够提高社会的生产效率,改变人类的生活,它的发展具有重大意义。然而,自由视点视频的数据量会随着可观看视点数量的增加成几何倍数的增长,这给视频的采集、存储和传输等带来了巨大的压力。虚拟视点合成技术正是为了解决这一难题,它利用已采集视点的场景信息去合成虚拟视点处的场景图像,可以有效降低需要采集的视点数量,使得自由视点视频变得易于普及。显而易见,虚拟视点合成技术已经成为自由视点视频中的关键技术。在众多虚拟视点合成方法中,基于深度信息的虚拟视点合成技术因为运算消耗低、合成效果逼真得到了较多的关注。基于深度图的虚拟视点合成过程遇到的难点主要有:深度信息的采集将增加自由视点视频应用的成本;实际使用的深度信息往往十分粗糙,影响虚拟视点的合成效果;合成的虚拟视图往往因为去遮挡的现象引入大面积的空洞区域等等。本文深入研究了基于深度信息的虚拟视点合成技术中的几个难点,提出了几项关键技术,设计、实现了几种虚拟视点合成算法,并验证了提出方法的可行性。首先,针对深度信息采集提高了应用成本的问题,提出了一种以局部立体匹配算法为基础的自适应深度估计算法。为了克服局部立体匹配算法误匹配率较高的问题,设计了根据代价聚合情况调整匹配窗口尺寸的算法。实验结果显示,提出的方法在运算速度上接近传统的局部立体匹配算法,同时误匹配率降低了一半。在匹配准确率接近基于像素级的多测度融合方法的同时,运行时间仅为后者的15%左右。这种方法在运算速度与匹配准确率上取得了很好的平衡,能够满足实际应用的需求,这对于自由视点视频的应用有重要意义。其次,文章分析了深度信息对合成虚拟视图效果的影响,对自适应叁边滤波器的预处理效果、以及基于特征匹配的深度图精细化方法进行了深入的研究与验证。提出了一种基于左右一致性验证的深度图精细化的方法。这个方法将深度图像素分为高可靠性、低可靠性以及不可检测叁类,并利用深度图的空间关联性对不可靠的像素深度值进行精细化处理,得到矫正的深度图。实验数据表明,经过预处理的虚拟视图相比之前提出的方法降低了2%到6%的空洞数量。虚拟视图PSNR指标增长了0.2 dB到0.5 dB。第叁,针对虚拟视点和参考视点在拍摄场景时的角度和位置不同,将在合成过程中引入大面积的空洞区域等问题,研究了利用空间域信息修复空洞区域的方法,设计了一种利用时间域信息的自适应全局背景建模的修复方法。该方法利用纹理图对应的深度信息,避免将反复出现的前景物体检测为背景区域,从而得到一个更准确的全局背景图。实验验证结果显示,利用时域信息修复去遮挡区域比传统的帧内修复技术提升了2.2 dB,比基于常规高斯混合模型进行背景建模的修复方法提升了0.7 dB。最后,为了克服虚拟视图中出现的针孔、裂缝、后景渗透等不良效应,提出了基于更新虚拟视点处深度图信息的深度处理方法。该方法在检测到的像素点进行去噪处理,能够高效地消除各种不良效应和噪音,同时保存纹理图中前后景的边界信息以及整幅图像中的纹理细节。此外,设计了多种各具优点的虚拟视点合成流程。其中,低时延的快速合成框架的合成效果和运算复杂度表现较平衡,单视点分层的合成框架仅需要单路参考视点信息,基于置信度的合成技术客观评估表现优越。本文对自由视点视频技术中的虚拟视点合成算法进行了深入的研究、探索和验证,提出了多种基于时空域关联性的技术解决视点合成过程中的难题,对于视频技术的发展具有指导意义。(本文来源于《哈尔滨工业大学》期刊2018-12-01)

武鑫,蒋林,宋辉,山蕊[6](2018)在《3D-HEVC虚拟视点合成技术研究》一文中研究指出虚拟视点合成技术是实现自由视点电视和叁维电影最主要的技术之一,已成为叁维高效视频编码(3D High Efficiency Video Coding,3D-HEVC)实时渲染领域的研究热点。本文在介绍虚拟视点合成技术的基础上,综述虚拟视点合成技术的研究进展。总结了基于像素填充和基于样本填充方法在空洞填充中的应用,分析比较了不同滤波算法下深度图预处理对合成视图质量的影响以及帧间运动估计中的3种快速算法。(本文来源于《电子设计工程》期刊2018年12期)

李小敏[7](2018)在《基于时空连续性的虚拟视点合成方法研究与实现》一文中研究指出随着3D产业的快速发展,人们不再满足于2D场景的体验,越来越追求置身于3D场景中身临其境的享受。在市场与技术的驱动下,电视技术也经历着重大变革,从单一功能、单一色彩的传统电视逐渐过渡到具有高度分辨率和多媒体功能的智能电视,再到传统的3D电视(3DTV),现在迎来了处于发展势头的自由视点电视(FTV),每一次变革都给用户带来更好的观看体验。自由视点视频是在视频加深度(V+D)的虚拟视点绘制框架基础上产生的,由于受到视频传输带宽的限制,基于深度图的虚拟视点绘制技术(DIBR)成为其中被普遍采用的方法,但是生成的虚拟视点图像上会出现“伪影”和空洞,影响用户的视觉观看体验。其次,目前大部分DIBR技术的解决方法都局限在处理单帧图像上,忽略了图像序列帧与帧之间的关联,所以生成的虚拟视点图像序列也会有时间不连续的问题,体现在频繁出现的闪烁现象。针对以上DIBR方法中出现的问题,本文提出了基于时空连续性的虚拟视点合成框架。首先,本文充分利用视频序列中的时域信息,通过结合结构相似度判断方法和深度信息,提取了整个场景的静态背景图像;其次,本文去除前景边缘的干扰,提取到真正的“伪影”区域,并利用本文提取到的全局静态背景图像对“伪影”区域进行消除;最后,本文提出了基于静态背景的加权融合空洞填补方法。实验证明,本文提出的方法能很好地修复虚拟视点图像质量,一方面使空洞和“伪影”大大减弱,很好地保持了图像的空间连续性。另一方面,本文方法也很好地保持了虚拟视点图像序列的时间连续性。(本文来源于《东南大学》期刊2018-06-06)

刘美琴[8](2018)在《叁维虚拟视点合成质量的增强》一文中研究指出随着信息技术和计算机技术的迅猛发展,人们已经不满足于二维视频带来的视觉体验。叁维视频和自由视点电视(3DVideo/Free-viewpointTV,3DV/FTV)作为新一代数字视频技术,因其能够提供更广的观看自由度、沉浸式的视觉效果以及灵活的交互功能,而受到工业界和学术界的广泛关注。然而,叁维视频观看自由度和沉浸感的提升是以庞大的视频数据为代价,这给视频的采集、存储和传输都带来了严峻的挑战。基于“多视点+深度图”(Multiview Video plus Depth,MVD)的格式被MPEG国际标准化组织确立为当前叁维视频的主流表示方法。基于深度图绘制(Depth-Image-B ased Rendering,DIBR)的虚拟视点合成技术在有效降低叁维视频数据量的同时,还能满足用户的立体视觉体验需求。显然,虚拟视点的合成质量直接影响了用户的立体视觉体验。然而,受到目前深度相机性能和传输带宽的限制,深度图存在着与其纹理图的分辨率不匹配问题;此外,由于深度图在采集、编解码和传输过程中易受到噪声的影响,不可避免地导致其质量下降。因而,这些问题严重地影响了虚拟视点的合成质量,也降低了用户的视觉体验效果。为此,开展叁维虚拟视点合成质量的增强研究具有重要的理论意义和实用价值。本论文围绕影响叁维虚拟视点合成质量的两个主要因素:深度图分辨率提升与虚拟视点的空洞填补开展工作,主要创新性研究成果包括:·提出了一种基于分形变换的深度图分辨率增强算法。受限于信道传输带宽和深度相机的采集性能,所采集的深度图分辨率往往低于纹理图。本文基于分形理论,通过分形变换提取刻画深度图自相似性的分形参数,形成分辨率无关的深度图表征,并利用不动点迭代系统重建出多个分辨率的深度图。在此基础上,通过引入低分辨率深度图的重构残差实现多分辨率的深度图融合,从而获得了高质量的上采样图像。实验结果表明,与传统插值方法相比,在放大2倍时,该算法所生成的虚拟视点的质量可以提升0.6 dB左右,放大8倍时,所合成的虚拟视点质量可达6%的增益;·提出了一种结构保持的深度图分辨率增强算法。基于梯度场局部分形分析的方法,可有效避免分辨率增强过程中深度图边缘退化的问题。在此基础上,考虑到多视点视频中深度图与其相应的纹理图的轮廓信息之间的对应关系,通过引入纹理图-深度图边缘一致性的约束,实现了结构保持的深度图分辨率增强。此外,从理论上分析了所提算法的运算复杂度。实验结果表明,深度图和虚拟视点分别获得了 0.25-1.46 dB和0.21-0.80 dB的质量提升,相应的主观质量也证明了算法的有效性;·提出了一种基于生成对抗网络的空洞填补方法。深度信息的不连续,使得虚拟视点图像的目标边缘出现了空洞区域。为此,在边缘采样的基础上,利用深度卷积生成对抗网络学习低维隐空间到真实样本空间的映射。进一步,通过引入对抗损失、上下文损失以及深度损失,来分别约束生成图像的真实性、非空洞区域的一致性以及局部纹理的连续性;由此,获得相应空洞在隐空间的最优因子表示,从而生成真实、高质的虚拟视点图像。实验结果表明该方法能够有效地填补空洞区域,并取得良好的视觉效果。(本文来源于《北京交通大学》期刊2018-04-10)

胡宁宁[9](2018)在《基于内容感知的视点合成》一文中研究指出叁维立体显示技术的飞速发展对视频格式提出了新的要求。相对于传统的双目立体视频,多视点视频以其丰富的视点内容优势,提供给了观者更加生动的临场感受。但这种逼真的立体感受却是以庞大的数据内容为代价,给采集端、存储设备及发送管道都带来不小的压力。视点合成是解决上述问题的有效途径。它利用现有的双目立体视频,结合相关计算机图形学及计算机视觉知识,建立视频内容与场景位置之间的映射关系,渲染生成目标视点画面。本文基于内容感知的视点合成关注图像特征信息,以图像的显着图为引导,求解视点间变换函数。论文的主要研究成果包括:(1)以传统的基于特征的视点映射方案为出发点,为了使计算出的单应性矩阵更加鲁棒,文中计算了图像的SOBEL边缘特征,并扩展到SIFT特征描述下,完成特征匹配及映射函数计算。此外,基于相关匹配的图像融合方法用来缓解由于视点间视域范围差异带来的合成图像边缘的黑边效应。实验结果验证了特征扩充及图像融合算法的有效性。(2)提出了一种基于正规网格的视点变形算法。在基于图像域变形算法的基础上,为了充分地利用图像的特征信息,算法中使用移动最小二乘方法控制网格变形,获得网格顶点的初始变形位置。此外,为了抑制网格线的弯曲变形,本文在能量方程中加入了网格线约束项。实验结果表明,最终的视点合成结果满足人眼的主观视觉感受。(3)在上述基于正规网格的视点变形算法的基础上,综合考虑图像内容的显着性及区域相似性,提出了自适应网格划分方案。算法以“区域内容显着且不相似”为划分依据,采用了自顶而下的基于四叉树的图像分割算法。并为划分后的网格设置了特定的网格遍历规则。实验结果表明本算法由于精简了网格数量,能量方程的计算量大大降低,而且没有带来图像质量的严重下降。(本文来源于《北京交通大学》期刊2018-03-01)

林上驰[10](2018)在《基于深度神经网络的光照敏感虚拟视点合成算法研究》一文中研究指出新视点绘制也称虚拟视点绘制,就是通过一个或多个不同位置(视点)的摄像机拍摄同一场景的图像,来生成此场景其他虚拟视点或相机位置上的图像。虚拟视点绘制方法主要分为基于模型绘制(MBR)和基于图像绘制两种(IBR)。其中基于图像绘制主要是利用有限但是高效的视点图像信息,而基于模型绘制则是利用大量的视点图像信息来进行复杂的几何建模与计算实现真实的立体沉浸感。新视点绘制这一技术可以用于诸如虚拟现实、图像稳定或单目电影3D化等应用。基于模型绘制可以实现任意方向上精确视角的绘制的优点但是需要大量复杂的输入视点信息进行长时间的计算,这局限了这一方法的应用。而基于图像绘制可以利用有限且高效的视点进行快速绘制,却依赖于有限的标定视角信息难以实现任意视点切换的缺陷,同时在传统基于图像绘制方法中的合成颜色特别是高光成分不准确。本文提出了一种新的自由视点绘制技术,它避免了基于模型绘制中对大量的视点信息进行建模计算,而选择基于图像绘制的基于视点映射关系的快速绘制,并且对场景进行构建几何模型实现任意方向自由视点的绘制。同时针对在传统的基于图像绘制合成技术中的固有前提,这一问题在基于模型绘制中由于建立的模型中包含了对光照的建模所以有效地解决了,即虚拟视点下物体颜色与虚拟视点下物体颜色一致,导致在场景中材质的镜面光系数越高,合成不切实际的结果就越显着这样的问题进行了修正。这种基于图像绘制的思路就是只考虑光照模型中环境光和漫反射这两种与视角无关的分量,而忽略了与视角相关的镜面光分量,这样一来在视点偏移特别是我们提出的任意方向的自由视点偏移时高光部分是“静态”的从而严重影响真实立体感。我们的方法将视点合成过程在端到端的网络中实现并优化颜色信息的高光分量在最终虚拟视点下的显示,由于基于图像绘制自身的性质,即有限输入信息,对于镜面光这样相对复杂得多的问题来进行基于模型绘制那样的建立模型比较困难,所以我们利用神经网络对于非线性过程强大的学习能力构建合适的神经网络结构来进行修正。本文方法做了这样叁点研究与改进:1.不使用深度图,分析归纳了基于图像绘制技术合成新视点的过程,并将深度估计与视点合成过程的绘制结合在端到端的深度卷积神经网络中。2.针对传统基于图像绘制合成结果的颜色不准确,特别是对于高光的合成结果不准确进行修正。3.利用对场景进行构建几何模型实现任意方向自由视点位置的生成并利用CUDA加速了整个的绘制与修补过程实现实时的视点变换视频观看。最终本文通过实验与测试证明了我们对于基于图像绘制的理解准确性,在端到端的神经网络中进行绘制虚拟视点,并且对于虚拟视点的高光分量的绘制质量有一定的提升,最后我们也实现了在任意方向上的自由视点快速而高效绘制的实时视频视点偏移技术。(本文来源于《上海交通大学》期刊2018-01-26)

视点合成论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

在叁维视频编码传输与视点合成技术当中引入深度图像的举措,标志着叁维电视真正意义上从传统3D-TV到FTV的转变,因为它允许用户随心所欲地改变观看视点,从而给人更加真实的叁维沉浸与立体感。相比较传统的3D-TV,基于深度图像的视点合成技术(Depth-Image-Based Rendering,DIBR)不需要编码与传输大量的多视点视频数据,而只需要采集获取有限几个视点的纹理和深度图像,在相机参数已知的条件下,利用视点合成技术,在叁维空间映射合成得到其它多个视点的图像。由于该技术运算速度快,且合成质量高,目前已被国际3D-HEVC(Three Dimensional High Efficiency Video Coding)和国内AVS2-P2-3D等国内外叁维视频编解码技术标准采用。然而,该技术依然会在合成视点中产生大量的空洞,且合成过程非常依赖深度图像的准确性。不适当的填充方法将使得合成视点出现区块性噪声,而不准确的深度图将在合成视点物体边界造成前景腐蚀或者背景噪声,极大影响观众的观赏体验。因此,如何更准确地填补空洞,如何修正深度图像使合成视点质量更好,成为本文研究的主要内容。针对以上提出的两点问题,本文的研究与主要的优化工作内容如下,优化主要在国内的AVS2-P2-3D参考软件RFD的VSS中进行:1.深度边界检测与空洞扩充技术改进:VSS软件中采用双值边界标定深度图像边界,标记的边界像素不参与映射,本文实验发现,采用单值标定效果更好;参考软件为了去除深度边界噪声采用空洞扩充技术,然而该方法也导致丢失大量原始像素,导致合成视点质量下降,本文建议关闭此技术。2.空洞周边及被遮挡背景像素的空洞填补:本技术对AVS2-3D参考软件RFD6.01中的视点合成参考软件VSS中的空洞填补技术进行改进。根据空洞的原理和机制,部分空洞由于视间偏移量较大,导致背景像素被前景完全遮挡,使得空洞左右两边不存在背景像素。本文针对这类空洞提出一种新的填补方案:利用空洞周围以及在映射过程中被遮挡的背景像素作为填充模板。实验过程中发现,当前通测序列所给出的深度图像极不准确,由此本文引入了左右参考视点相互映射参考的方法作为判定当前深度图像准确度的依据。若深度图准确,那么应用本文所提出的技术;如果深度图像不准确,则保持原有技术不变。3.基于MRF的深度图像滤波技术:实验表明,通测序列深度图像在边界处存在大量噪声,影响合成虚拟视点质量。本文提出一种基于MRF(Markov Random Field,MRF)的深度图像滤波方法,利用Mean shift和SLIC(Simple Linear Iterative Cluster,SLIC)的分割块建立MRF模型,对深度图像进行滤波。实验结果显示,利用滤波后的深度图像进行视点合成,合成质量有显着提升。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

视点合成论文参考文献

[1].余芳,安平,严徐乐.基于显着性信息和视点合成预测的3D-HEVC编码方法[J].上海大学学报(自然科学版).2019

[2].刘隆国.基于深度图像的虚拟视点合成技术研究与优化[D].电子科技大学.2019

[3].李晗.基于DIBR视点合成的空洞填充方法[J].现代计算机(专业版).2019

[4].贾博奇,张梦诗,梁楠,武博,张楠.基于可伸缩窗视差生成的开放手术视频虚拟视点合成算法[J].北京生物医学工程.2018

[5].邓增明.基于深度信息的虚拟视点合成方法研究[D].哈尔滨工业大学.2018

[6].武鑫,蒋林,宋辉,山蕊.3D-HEVC虚拟视点合成技术研究[J].电子设计工程.2018

[7].李小敏.基于时空连续性的虚拟视点合成方法研究与实现[D].东南大学.2018

[8].刘美琴.叁维虚拟视点合成质量的增强[D].北京交通大学.2018

[9].胡宁宁.基于内容感知的视点合成[D].北京交通大学.2018

[10].林上驰.基于深度神经网络的光照敏感虚拟视点合成算法研究[D].上海交通大学.2018

论文知识图

由于深度估计错视图合成生成虚拟视点图像基于未压缩深度图绘制虚拟视点图像比...序列使用JMVC和本文方法...基于MVD的自由立体显示器上的视点绘制...提出算法的流程图

标签:;  ;  ;  ;  ;  ;  ;  

视点合成论文_余芳,安平,严徐乐
下载Doc文档

猜你喜欢