谷歌的机器学习专用芯片让AI速度更快、更高效
腾讯科技2017-04-25
【AI世代编者按】近期,谷歌正在开发专用机器学习芯片TPU。在人工智能硬件的军备竞赛中,这是谷歌的最新一步举措。
TPU是英文“张量处理单元”的缩写。TPU的设计可匹配谷歌的开源机器学习库TensorFlow使用,从2015年开始就被用在谷歌的数据中心中。本月早些时候,谷歌首次公布了这种设备的性能数据。
谷歌表示,当前一代TPU的设计支持推理运算,即利用经过训练的神经网络去完成某些功能,例如通过谷歌Now识别语音命令。对于这些任务,谷歌表示,TPU的速度要比同一代GPU和CPU快15到30倍,而能效要高出30到80倍。
自60年代以来,CPU(中央处理器)是几乎所有计算机的核心。然而,这种芯片并不适合当代机器学习算法,尤其是深度学习的计算要求。
到00年代末,研究人员发现,显卡非常适合这类任务的并行计算要求。因此,GPU(图形处理单元)成为了神经网络设计时的事实标准。不过,随着谷歌对机器学习技术的进一步开拓,该公司希望开发订制的硬件产品,以满足专门需求。
负责该项目的首席工程师诺姆·朱庇(Norm Jouppi)在博客中表示:“对TPU的需求从6年前出现,当时我们开始在产品中越来越多的地方使用对计算资源需求庞大的深度学习模型。使用这些模型带来的计算开销令我们担忧。”
“考虑一种场景:如果用户每天使用谷歌语音搜索3分钟时间,我们使用基于当前处理单元的深度神经网络来支撑语音识别系统,那么我们必须将谷歌数据中心的数量增加一倍!”
英伟达则认为,这样的比较并不恰当。谷歌将TPU与服务器级别的英特尔Haswell CPU和英伟达K80 GPU进行了对比。然而自那时以来,英伟达GPU已经走过了两代产品。英特尔没有对此置评,但Haswell处理器早已是3代之前的产品。
英伟达在
腾讯科技2017-04-25
【AI世代编者按】近期,谷歌正在开发专用机器学习芯片TPU。在人工智能硬件的军备竞赛中,这是谷歌的最新一步举措。
TPU是英文“张量处理单元”的缩写。TPU的设计可匹配谷歌的开源机器学习库TensorFlow使用,从2015年开始就被用在谷歌的数据中心中。本月早些时候,谷歌首次公布了这种设备的性能数据。
谷歌表示,当前一代TPU的设计支持推理运算,即利用经过训练的神经网络去完成某些功能,例如通过谷歌Now识别语音命令。对于这些任务,谷歌表示,TPU的速度要比同一代GPU和CPU快15到30倍,而能效要高出30到80倍。
自60年代以来,CPU(中央处理器)是几乎所有计算机的核心。然而,这种芯片并不适合当代机器学习算法,尤其是深度学习的计算要求。
到00年代末,研究人员发现,显卡非常适合这类任务的并行计算要求。因此,GPU(图形处理单元)成为了神经网络设计时的事实标准。不过,随着谷歌对机器学习技术的进一步开拓,该公司希望开发订制的硬件产品,以满足专门需求。
负责该项目的首席工程师诺姆·朱庇(Norm Jouppi)在博客中表示:“对TPU的需求从6年前出现,当时我们开始在产品中越来越多的地方使用对计算资源需求庞大的深度学习模型。使用这些模型带来的计算开销令我们担忧。”
“考虑一种场景:如果用户每天使用谷歌语音搜索3分钟时间,我们使用基于当前处理单元的深度神经网络来支撑语音识别系统,那么我们必须将谷歌数据中心的数量增加一倍!”
英伟达则认为,这样的比较并不恰当。谷歌将TPU与服务器级别的英特尔Haswell CPU和英伟达K80 GPU进行了对比。然而自那时以来,英伟达GPU已经走过了两代产品。英特尔没有对此置评,但Haswell处理器早已是3代之前的产品。
英伟达在
