分支预测论文开题报告文献综述

分支预测论文开题报告文献综述

导读:本文包含了分支预测论文开题报告文献综述、选题提纲参考文献,主要关键词:分支,标量,指令,处理器,错误率,译码,仿真器。

分支预测论文文献综述写法

王伟[1](2017)在《乱序处理器分支预测器性能建模》一文中研究指出随着移动智能应用需求的不断变化和工艺设计的不断改进,分支预测器作为缓解微处理器控制冒险和降低流水线气泡的关键技术被引入。相应的,如何评估分支预测器的性能成为研究热点,主要包括分支缺失次数与分支确定时间的研究。分支缺失次数方面,研究人员挖掘软件微结构无关特征参数与分支预测机制之间的关系,并构建解析模型,但与分支预测仿真模型相比,预测精度较差。分支确定时间方面,现有的分析和模型无法覆盖所有的影响因素,且在跨程序预测上精度较差。本文构建了分支预测仿真器与基于神经网络的分支确定时间模型,提高了分支预测器性能评估的精度。主要工作分为叁个部分,第一,采用Python语言构建了 Gshare、Bimode和Tournament叁种分支预测器的仿真模型,并提供了多种配置选项,可以准确模拟分支预测器的行为。第二,分析了影响分支确定时间的因素及其之间的耦合关系,并通过构建神经网络模型,实现了跨程序的分支确定时间预测。第叁,将前两部分的工作整合成一个完整的工具,提供了易于操作的可视化图形界面。在SPEC CPU2000测试集以及9种分支预测器配置下,本文实现的分支预测仿真器的缺失次数预测与原子模式下Gem5仿真结果相比,平均精度在98%左右,与前期的解析模型相比,平均精度提升了 28%。在时间方面,Trace流具有一次仿真,多次使用的特点,因此所考察的微架构越多,单位时间成本就越低,即分支预测仿真器的加速比与分支预测器的微结构配置种类成正比。在MobyBench测试集以及9种分支预测器配置下,基于神经网络的分支确定时间模型的平均精度在82%,相比于前期的非线性拟合模型与精简假设模型,平均精度分别提升了 19%和27%。(本文来源于《东南大学》期刊2017-06-14)

雷思磊[2](2017)在《开源处理器Rocket的分支预测机制与性能评估》一文中研究指出Rocket是基于RISC-V指令集架构的开源处理器,具有分支预测功能,其实现了GShare分支预测机制,在分析Rocket处理器分支预测处理过程、分支预测实现原理的基础上,利用模拟器进行了性能测试,并依据测试结果,对Rocket处理器分支预测参数配置给出建议。(本文来源于《单片机与嵌入式系统应用》期刊2017年06期)

付家为,王旭,何虎[3](2017)在《一种支持Superscalar-VLIW混合架构处理器的混合分支预测设计》一文中研究指出描述在一款支持超标量与超长指令字结构的混合架构数字信号处理器上设计的分支预测结构。为控制硬件复杂度并充分提高预测准确度,设计双峰预测器与PAp预测器混合型预测结构,充分发挥两种预测器的优点。在设计完成的处理器上,运行标准DSPstone程序。实验结果表明,添加分支预测结构使得处理器性能平均提升23%,并且混合型预测结构相比单一预测结构在准确度方面优势明显。(本文来源于《计算机应用与软件》期刊2017年02期)

吴金磊[4](2016)在《处理器核的性能分析及其分支预测结构优化》一文中研究指出随着处理器微体系结构的日益复杂,如何在有限的研制周期内进行有效的性能分析和优化成为处理器设计中迫切需要解决的问题。本文以一款处理器核的寄存器传输级(Resgiter Transfer Level,简称RTL)代码为分析模型,采用基于硬件计数器的性能分析方法,从微体系结构级对该处理器核运行SPEC CPU2000测试程序时的性能受限因素进行了分析,并根据分析结果对处理器核的分支预测结构进行了优化。本文的主要贡献有:1、实现了基于硬件计数器的处理器核性能分析方法。模型的准确性和速度是性能分析的关键。本文将处理器核的RTL代码作为分析模型,在其外部添加了一个专用性能监测单元,该单元实现了若干性能计数器,可以对微体系结构分析需要的各种事件进行统计,并将统计结果输出给结果分析器。专用性能监测单元和处理器核的RTL代码同时运行在现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)原型系统上,提供快速、准确的处理器核微体系结构级性能分析平台。2、分析了处理器核运行SPEC CPU2000测试程序的性能受限因素。处理器核的机器宽度为4,但运行SPEC CPU2000测试程序时,平均每拍完成的指令数(Instructions Per Cycle,简称IPC)不超过2。本文从重命名和分派两处着手,采用基于硬件计数器的性能分析方法寻找重命名阻塞和分派阻塞的原因。分析结果表明:重命名寄存器个数不足导致浮点程序运行时重命名阻塞严重;优化分支预测结构可以减轻因为没有指令导致的重命名阻塞;发射队列项数不足导致分派阻塞严重。3、优化了处理器核的分支预测结构。通过性能分析发现优化分支预测结构可以缓解重命名阻塞,而处理器核运行SPEC CPU2000测试程序时的分支误预测平均90%以上是由方向预测错误导致的。本文在处理器核中设计并实现了更加高级的分支方向预测算法TAGE(TAgged GEometric history length),并对其进行了验证和评估。结果表明,相比原有的分支预测结构,TAGE分支预测结构令处理器核在运行SPEC CPU2000整数和浮点测试程序时的分支方向误预测率平均分别降低了0.46%和1.03%,处理器核的性能平均分别提高了1.09%和1.31%,而处理器核的面积仅增加了0.24%。(本文来源于《国防科学技术大学》期刊2016-11-01)

戎越[5](2016)在《面向Android应用的分支预测器对比与分析》一文中研究指出超标量超深流水线技术被普遍应用到现代嵌入式处理器中。其中,分支指令的高效执行是充分发挥硬件潜能的前提,因此现代处理器普遍采用分支预测技术降低分支指令造成的性能损失。另一方面,随着Android设备的普及,Android应用也越来越丰富。Android应用与传统benchmark存在差异,在Android应用下对比不同分支预测器的预测准确率、探索微结构参数对预测准确率的影响,可以为面向Android平台的移动设备的处理器设计提供参考。本文详细分析了Gem5仿真器中的CPU模型,通过对CPU模型的修改,从Gem5仿真器中提取出Android应用分支Trace流并用于后续Trace仿真。本文在Android应用场景下分析了微结构参数对GShare和Bimode两种分支预测器的预测准确率的影响,并在多种微结构参数下对比了两者的预测准确率。论文还分析了微结构参数对BTB预测准确率的影响以及BTB预测错误的原因。针对BTB无法有效预测间接分支目标地址的问题,本文实现了VPC间接分支预测机制,并通过对比实验验证了该机制的有效性。实验结果表明在Android应用下,Bimode比GShare分支预测器在多种微结构参数下都有更高的预测准确率。对于GShare预测器,在PHT小于4K时增大PHT可以有效增加预测准确率:Bimode预测器在PHT小于6K时增大PHT可以有效提升预测准确率:在假设跳转方向预测完全正确的情况下,BTB在4K以下时能够通过增加表项有效提升预测准确率。BTB增大后,无法有效预测具有多个跳转目标的间接分支成为主要瓶颈。VPC预测机制在AsimBench下,与Bimode加BTB的预测方式相比,平均分支预测正确率从90.14%提升到92.16%,分支错误引起的开销下降20.5%。(本文来源于《东南大学》期刊2016-05-01)

张世远,于立新[6](2015)在《分支预测对超标量流水线性能影响分析》一文中研究指出随着RSIC处理器体系结构的发展,指令级并行度的提高成为微处理器架构研究热点,分支预测技术作为解决流水线中控制相关问题的关键技术,对指令级并行度有着重要影响.通过对超标量处理器中流水线性能与分支预测相关的因素的关系分析,以及和标量处理器性能的对比,基于合理的假设条件得到它们之间关系的解析函数,从不同的角度深入分析了分支预测算法中分支预测正确率、分支指令所占比例、分支预测错误时刻、程序指令数大小、流水线深度以及指令并行发射宽度对流水线性能影响,为现代RISC处理器的研究以及分支预测技术的研究提供参考.(本文来源于《微电子学与计算机》期刊2015年08期)

赵朝君,陈晨,陈志坚,孟建熠[7](2015)在《基于历史长度自适应的分支预测方法》一文中研究指出通过研究处理器动态分支预测器中预测效率与分支历史长度的关系,针对程序中各分支指令存在不同最优历史长度的规律,提出一种搜索各分支指令最佳历史长度的分支预测方法.该方法通过实时监测分支指令的预测准确率,在分支预测表硬件资源不变的情况下动态调整预测器的历史长度,以适应程序的动态运行特征.实验结果表明,在相同硬件资源下,文中方法相对于Gshare预测器错误率降低15.8%,相对于Bi-mode预测器预测错误率降低10.3%.(本文来源于《计算机辅助设计与图形学学报》期刊2015年04期)

肖建青,沈绪榜,李伟,张洵颖[8](2015)在《一种组合延迟槽和预译码技术的新型分支预测器》一文中研究指出分支预测是现代微处理器普遍用于提高指令吞吐率的关键技术,随着处理器性能需求的不断增长,分支预测结构越来越复杂,其功耗问题也日益突出.针对SPARC V8架构嵌入式处理器的结构特点和应用需求,设计了一种基于延迟槽的动态分支预测器,以此来提高处理器的预测性能;另外,通过分析动态预测器的几种设计空间,提出采用预译码机制来消除无效访问的电路结构,从而降低预测器的功耗开销.该设计在SMIC 0.13μm工艺下实现,分支预测准确度相比于之前的静态算法提高了21%,动态预测器本身的功耗降低了58%,而整个处理器的面积仅增加1.73%.结果表明,这种组合延迟槽和预译码技术的分支预测思想对SPARC处理器的性能和功耗都达到了很好的优化效果.(本文来源于《小型微型计算机系统》期刊2015年04期)

李笑天,郭德源,何虎[9](2015)在《分支预测与值预测在VLIW处理器中的实现》一文中研究指出为了降低超长指令字(VLIW)架构的平均跳转开销和平均访存时延,并减少VLIW程序的代码体积,提出了一种全新的将分支预测与值预测技术应用于VLIW架构的方法.首先分析现有超标量(Superscalar)架构中动态预测技术与VLIW架构中指令静态并行之间所存在的矛盾;通过拓展原有跳转指令和读内存指令,使之与不同的延时槽个数相对应,并根据不同的指令来阻塞流水线或延时写回寄存器,从而解决动态预测技术造成VLIW架构静态调度周期错乱的问题.基于Gem5仿真平台和清华大学Magnolia VLIW数字信号处理器(DSP)的基准测试程序实验表明,该分支预测与值预测技术能显着地提高VLIW架构的性能,缩小VLIW程序的代码体积.(本文来源于《微电子学与计算机》期刊2015年01期)

陈智勇,廉海涛,吴星星[10](2014)在《一种改进的神经网络分支预测技术》一文中研究指出通过研究神经网络的算法特征,提出一种改进方法,即设置一个门限值η,减小该算法的运算量以减小其访问延迟,提高该算法的实用性.研究表明该方法能够实现较快的访问速度.(本文来源于《微电子学与计算机》期刊2014年11期)

分支预测论文开题报告范文

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

Rocket是基于RISC-V指令集架构的开源处理器,具有分支预测功能,其实现了GShare分支预测机制,在分析Rocket处理器分支预测处理过程、分支预测实现原理的基础上,利用模拟器进行了性能测试,并依据测试结果,对Rocket处理器分支预测参数配置给出建议。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

分支预测论文参考文献

[1].王伟.乱序处理器分支预测器性能建模[D].东南大学.2017

[2].雷思磊.开源处理器Rocket的分支预测机制与性能评估[J].单片机与嵌入式系统应用.2017

[3].付家为,王旭,何虎.一种支持Superscalar-VLIW混合架构处理器的混合分支预测设计[J].计算机应用与软件.2017

[4].吴金磊.处理器核的性能分析及其分支预测结构优化[D].国防科学技术大学.2016

[5].戎越.面向Android应用的分支预测器对比与分析[D].东南大学.2016

[6].张世远,于立新.分支预测对超标量流水线性能影响分析[J].微电子学与计算机.2015

[7].赵朝君,陈晨,陈志坚,孟建熠.基于历史长度自适应的分支预测方法[J].计算机辅助设计与图形学学报.2015

[8].肖建青,沈绪榜,李伟,张洵颖.一种组合延迟槽和预译码技术的新型分支预测器[J].小型微型计算机系统.2015

[9].李笑天,郭德源,何虎.分支预测与值预测在VLIW处理器中的实现[J].微电子学与计算机.2015

[10].陈智勇,廉海涛,吴星星.一种改进的神经网络分支预测技术[J].微电子学与计算机.2014

标签:;  ;  ;  ;  ;  ;  ;  

分支预测论文开题报告文献综述
下载Doc文档

猜你喜欢