基于CPU/GPU/FPGA的异构计算智能服务平台开发开题报告
2020-02-10 22:33:58
1. 研究目的与意义(文献综述)
随着社会的高速发展,互联网用户的快速增长,各行各业都产生了海量的数据,对于海量数据的高效处理方法已经成为当前的研究热点。然而,在摩尔定律的限制下,当今通用处理器的计算能力已经很难满足大数据处理的高性能需求[1],一些潜在的新型计算系统包括量子计算机、神经网络计算机异构计算等相继出现。其中,异构计算以“cpu ”的形式出现,具有较好的可行性及通用性,有望率先主导处理器市场[2]。
20世纪80年代,异构计算技术就已经诞生了。所谓的异构,就是cpu、dsp、gpu、asic、协处理器、fpga等各种计算单元、使用不同的类型指令集、不同的体系架构的计算单元,组成一个混合的系统,执行计算的特殊方式,就叫做“异构计算”。
目前异构计算平台的主流是“cpu gpu”和“cpu fpga”架构。这些典型异构计算架构最大的优点是具有比传统cpu并行计算更高效率和低延迟的计算性能,尤其是业界对计算性能需求水涨船高的情况下,异构计算变得愈发重要。与cpu相比,gpu和fpga拥有更多的优势,gpu在浮点计算、并行处理等方面的性能远远高出cpu。同时, 越来越多的深度学习标准库支持基于gpu加速, 如open cl、cuda等[3];而fpga的优势则主要体现在它拥有更高的每瓦性能、价格便宜、能耗较低,可以采用opencl、c等更高效的编程语言, 降低了硬件编程的难度;还可以集成重要的控制功能, 整合系统模块, 提高了应用的灵活性[3]。
2. 研究的基本内容与方案
1)研究(设计)的基本内容
构建出一种适用于深度学习的高计算性能,高加速性能和低功耗的基于cpu gpu fpga异构计算智能服务平台。
根据提供的需要加速的深度学习的程序,提取出计算的数据和加速的内核,然后在特定的调度程序的分配下,通过设计的数据和内核接口,利用opencl api分别调度硬件加速平台[8-9],将不同的加速内核和数据分配给不同的硬件设备,如intel cpu,nvidia gpu,xilinx fpga,底层的硬件设备完成各自的加速任务,最终将计算结果返回到数据接口,最终构建出cpu gpu fpga的异构计算平台。
3. 研究计划与安排
2019/02/28:完成基础知识的学习,撰写开题报告;
2019/03/15:完成基础的cpu gpu fpga的硬件平台的搭建;
2019/04/15:完成基于cuda的gpu的开发,完成基于sdx的fpga的开发;
4. 参考文献(12篇以上)
[1]逄健, amp; 刘佳. (2015). 摩尔定律发展述评. 科技管理研究, 35(15), 46-50.
[2]虞志益. (2017). “异构计算” 专题前言. 电子技术应用, 43(3), 5-5.
[3]沈阳, 王倩, 王亚男, amp; 王磊. (2017). 深度学习硬件方案综述. 广播电视信息, (10), 64-68.