DSP

CPU 与 GPU 的介绍

2019-07-13 19:19发布

本文是一个转载,觉得介绍的简单而且精辟,对应要认识cpu和gpu的我来说,很好,原文地址:http://hc.csdn.net/article.html?arcid=2810268(已失效) 异构计算的英文名称是Heterogeneous computing,主要是指使用不同类型指令集和体系架构的计算单元组成系统的计算方式。常见的计算单元类别包括CPU、GPU等协处理器、DSP、ASIC、FPGA等。我们常说的并行计算正是异构计算中的重要组成部分异构计算近年来得到更多关注,主要是因为通过提升CPU时钟频率和内核数量而提高计算能力的传统方式遇到了散热和能耗瓶颈。而与此同时,GPU等专用计算单元虽然工作频率较低,具有更多的内核数和并行计算能力,总体性能/芯片面积的比和性能/功耗比都很高,却远远没有得到充分利用。 CPU的设计让其比较擅长于处理不规则数据结构和不可预测的存取模式,以及递归算法、分支密集型代码和单线程程序。这类程序任务拥有复杂的指令调度、循环、分支、逻辑判断以及执行等步骤。而GPU擅于处理规则数据结构和可预测存取模式。而APU的设计理念则正是让CPU和GPU完美合作,集合两者的长处,用异构计算来达到整体性能的最佳化。 目前,已经有50款领先的应用能够利用AMD APU进行加速,而后续的应用也将陆续到来——异构计算普及的一刻应该是近在咫尺了。 再谈谈现在正在流行的异构计算CPU+GPU。 CPU和GPU的本质区别 CPU的目标是快速执行单一指令流; CPU将其用于乱序执行、寄存器重命名、分支预测以及巨大的cache上,这些设计都是为了加速单一线程的执行速度; CPU利用cache来降低内存访问延迟; CPU通过大量的cache和分支预测来降低延迟,这些机制消耗了大量的晶体管的电能; CPU每个核心支持1~2个线程; CPU切换线程的代价是数百个时钟周期; CPU通过SIMD(单指令多数据)来处理矢量数据; Intel的CPU没有集成内存控制器;   GPU的目标是快速执行大量的并行指令流; GPU将晶体管用于处理器阵列、多线程管理、共享内存、内存控制器; 这些设计并不着眼于提高单一线程的执行速度,而是为了使GPU可以同时执行成千上万的线程; 实现线程间通信,并提供极高的内存带宽; GPU使用cache来放大内存带宽; GPU通过同时运行上千个线程来隐藏延迟,等待内存访问的线程会被切换掉,GPU切换线程不耗时间; 对于支持CUDA的GPU,每个流处理器可以同时处理1024个线程; GPU切换线程的代价是0,事实上GPU通常每个时钟周期都切换线程; GPU则使用SIMT(单指令多线程),SIMT的好处是无需开发者费力把数据凑成合适的矢量长度,并且SIMT允许每个线程有不同的分支; 支持CUDA的GPU集成有8个内存控制器,GPU的内存带宽通常是CPU的十倍。   CPU的长项是整数计算,GPU的优势则是浮点计算。 对于整机性能而言,CPU和GPU都是性能的保障,合理的搭配才是重中之重,才能给用户带来最强的综合性能。