分享

为省下15个数据中心的钱 谷歌研发了一块机器学习芯片

 timtxu 2017-04-07

谷歌运营着地球上最大的计算机网络,这个网络包含四个大陆的15个数据中心

大约在6年前,随着谷歌在Android手机上采用了新的语音识别形式(Google Now和Google Assistant),其工程师开始担心这个网络还不够大。

如果世界上的每个Android手机每天都使用谷歌Voice来搜索,只需要持续搜索三分钟,谷歌的数据中心就要再增加两倍才能满足需求。

这块芯片让他们省了15个数据中心

当时,谷歌刚刚开始使用深层神经网络、复杂的数学系统来开发语音识别服务,这使得其语音识别服务可以通过分析大量的数据来学习特定的任务。

近年来,这种机器学习形式,不但重新定义了语音识别,而且还可以用来进行图像识别、机器翻译互联网搜索等等。

用机器学习来开发这些技术,谷歌发现错误率下降了25%。但是机器学习需要更大的数据处理能力,也就是说谷歌需要更多的数据中心。

相比将数据中心的数量翻倍,谷歌专门研发了它自己的计算机芯片来运行深度神经网络,叫做Tensor Processing Unit,或者简称TPU。在TOPS/Watt测量中,TPU的性能优于标准处理器30到80倍,效率高太多了。

谷歌去年五月首次透露了这款定制机器学习芯片,但没有提供更多细节。

现在Google资深硬件工程师Norman Jouppi和他的团队成员发表了一篇文章,详细说明了该项目,解释了芯片的运行方式以及能够解决的特殊问题。

谷歌使用该芯片仅用于执行神经网络,在某个用户使用Android手机启用语音来搜索的时候才会运行。事先不用训练神经网络,因为神经网络能够自主学习

Jouppi说这样可以为公司剩下许多钱,这样谷歌就不需要再建15个数据中心了。

这块芯片也标志着计算机处理器世界的重大改变

由于谷歌、Facebook、微软等互联网巨头使用深度神经网络构建越来越多的服务,他们都需要专门的芯片来训练和执行AI模型。

大多数公司使用GPU来进行训练,还有一些公司,包括微软和百度在执行AI模型时也开始使用替代的芯片。

但是谷歌从零开始研发自己的芯片。作为一种降低成本并提高效率的方式,谷歌建立了自己的数据中心硬件,包括服务器和网络设备。现在它已将这项工作推向别的处理器。

在此过程中,谷歌也改变了芯片市场。比如,谷歌设计自己的芯片,那就可以不用再购买别家的处理器以适应神经网络的负荷。谷歌还可以成为Facebook亚马逊、微软的芯片供应商。谷歌自己打造芯片,势必会对芯片制造商产生巨大影响,这也能逼迫英特尔等大型芯片制造商研发新的处理器

TPU可适用于任何种类的神经网络

Jouppi曾在HP和DEC担任硬件工程师,在2013年年底加入了谷歌。他表示,谷歌曾经考虑将它的神经网络用在可编程芯片FPGA上,FPGA是微软正在使用的芯片。但FPGA的速度却没有提升多少。“我们的分析表明,FPGA不会比GPU快。”他说。

最后,该团队转向了定制ASIC,这是一个基于特定任务的芯片。据Jouppi介绍,由于谷歌专门为神经网络设计了芯片TPU,它可以比通过类似制造技术制造的通用芯片运行速度快15到30倍。

该芯片适用于任何种类的神经网络,包括从图像识别中使用的神经网络到用于识别语音命令的神经网络等。

谷歌已经使用TPU芯片快两年了,而TPU芯片除了用于图像识别和机器翻译最耀眼的应用就是那个在去年打败韩国棋手李世石的人工智能AlphaGo了

虽然TPU带来了突破性进步,但这并不代表会完全淘汰CPU和GPU,目前Google同时使用TPU和GPU运行自己的神经网络。

还不错——特别是考虑到在此过程中避免了再建数据中心的麻烦。

文章来源:赛格威机器人,转载请注明出处。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多