GPU计算或GPGPU就是利用图形处理器(GPU)来进行通用科学与工程计算。
GPU计算的模式就是,在异构协同处理计算模型中将CPU与GPU结合起来加以利用。 应用程序的串行部分在CPU上运行,而计算任务繁重的部分则由GPU来加速。 从用户的角度来看,应用程序只是运行得更快了。因为应用程序利用了GPU的高性能来提升性能。

在过去几年里,GPU的浮点性能已经上升到Teraflop级的水平。 在2006-2007年间,英伟达™(NVIDIA®)推出其叫做“CUDA”的全新大规模并行架构,从而实现了GPGPU的革命并加速了整个计算世界行 业。 英伟达™CUDA(NVIDIA® CUDA)架构由数以百计的处理器核心组成,这些核心能够协同工作,共同完成对应用程序中数据集的处理。
过去几年里GPGPU的成功使CUDA并行编程模型相关的编程工作变得十分轻松。 在这种编程模型中,应用程序开发者可修改他们的应用程序以找出计算量繁重的程序内核,将其映射到GPU上,让GPU来处理它们。 应用程序的剩余部分仍然交由CPU处理。 想要将某些功能映射到GPU上,需要开发者重新编写该功能,在编程中采用并行机制,加入“C”语言关键字以便与GPU之间交换数据。 开发者的任务是同时启动数以万计的线程。 GPU硬件可以管理线程和进行线程调度。
英伟达™ Tesla(NVIDIA® Tesla)20系列GPU基于“Fermi”架构,这是最新的英伟达™ CUDA(NVIDIA® CUDA)架构。 Fermi专为科学应用程序而进行了优化、具备诸多重要特性,其中包括:支持500 gigaflop以上的IEEE标准双精度浮点硬件、一级和二级高速缓存、ECC存储器错误保护、本地用户管理的数据高速缓存(其形式为分布于整个GPU 中的共享存储器)以及合并存储器访问等等。
'
GPU计算的模式就是,在异构协同处理计算模型中将CPU与GPU结合起来加以利用。 应用程序的串行部分在CPU上运行,而计算任务繁重的部分则由GPU来加速。 从用户的角度来看,应用程序只是运行得更快了。因为应用程序利用了GPU的高性能来提升性能。

在过去几年里,GPU的浮点性能已经上升到Teraflop级的水平。 在2006-2007年间,英伟达™(NVIDIA®)推出其叫做“CUDA”的全新大规模并行架构,从而实现了GPGPU的革命并加速了整个计算世界行 业。 英伟达™CUDA(NVIDIA® CUDA)架构由数以百计的处理器核心组成,这些核心能够协同工作,共同完成对应用程序中数据集的处理。
过去几年里GPGPU的成功使CUDA并行编程模型相关的编程工作变得十分轻松。 在这种编程模型中,应用程序开发者可修改他们的应用程序以找出计算量繁重的程序内核,将其映射到GPU上,让GPU来处理它们。 应用程序的剩余部分仍然交由CPU处理。 想要将某些功能映射到GPU上,需要开发者重新编写该功能,在编程中采用并行机制,加入“C”语言关键字以便与GPU之间交换数据。 开发者的任务是同时启动数以万计的线程。 GPU硬件可以管理线程和进行线程调度。
英伟达™ Tesla(NVIDIA® Tesla)20系列GPU基于“Fermi”架构,这是最新的英伟达™ CUDA(NVIDIA® CUDA)架构。 Fermi专为科学应用程序而进行了优化、具备诸多重要特性,其中包括:支持500 gigaflop以上的IEEE标准双精度浮点硬件、一级和二级高速缓存、ECC存储器错误保护、本地用户管理的数据高速缓存(其形式为分布于整个GPU 中的共享存储器)以及合并存储器访问等等。
'

