首页 > 大数据 > 正文

一个AI芯片适配所有设备,巨头们的开发大赛已经开始

2017-05-03 11:10:22  来源:36氪

摘要:AI 芯片的研发在芯片领域掀起了一股热潮,行业巨头纷纷加入了这场“芯片大战”之中。
关键词: 巨头 芯片 设备
\

  谷歌、Facebook和微软等公司目前仍可以使用标准电脑芯片,也就是我们常说的CPU来保证神经网络的正常运行。但由于CPU在当初是被设计成全功能处理器,因此处理效率很低。与那些专门处理人工智能系统大量数学运算的芯片相比,神经网络运行速度更快,能耗更低。目前,各大巨头已经瞄准了AI芯片这个方向,正在比拼开发速度。
 
  Yann LeCun曾制造了一种智能芯片,命名为ANNA。那是25年前,也就是1992年,LeCun还是地处纽约城外的贝尔实验室的一名研究员。他和其他几名研究员一起设计了这款芯片来运行深度神经网络,这里的神经网络指的是能通过分析大量数据来完成自主学习任务的复杂精确的系统。但ANNA没能触及大众市场。虽然该神经网络能很好地识别个人支票和信封上的字母和数字,但涉及到其他任务时,其表现差强人意,至少在实用性方面没那么令人满意。
 
  然而如今,神经网络正在快速改变互联网产业的巨头们,包括谷歌、Facebook和微软。现在,LeCun负责Facebook的人工智能中心实验室,研究方向是利用神经网络识别照片中的人脸和其他对象以及翻译等等。LeCun说,在25年后的今天,市场非常需要像ANNA这样的芯片,不久后这些芯片就能实现量产。
 
  谷歌也在最近制造了自己的人工智能芯片,取名为TPU,并广泛配置在公司的大型数据中心里——正是这些数据中心构建起了谷歌庞大的网络帝国。内置于服务器的数千TPU芯片一起完成从识别安卓手机语音输入指令到在谷歌搜索引擎里筛选搜索结果的功能。但这仅仅是即将掀起的新浪潮的开始。上周,据CNBC报道,当初TPU的设计团队中几名工程师现在加入了悄悄成立的新公司Groq并开始制造类似的人工智能芯片,而其他鼎鼎大名的芯片制造商如英特尔、IBM、高通公司等,在这个方向也有一定动作。
 
  谷歌、Facebook和微软等公司目前仍可以使用标准电脑芯片,也就是我们常说的CPU来保证神经网络的正常运行。但由于CPU在当初是被设计成全功能处理器,因此处理效率很低。与那些专门处理人工智能系统大量数学运算的芯片相比,神经网络运行速度更快,能耗更低。谷歌表示,使用TPU芯片为公司节约的成本足够新建15个数据中心。现在,谷歌和Facebook等公司正在研究将神经网络运用到手机和VR设备上,以此减少图像在数据中心间传输的延时。因此他们也需要能配置在个人设备上的人工智能芯片。LeCun说,离更专业化、更高效的芯片还有很大的空间。
 
  换句话说,人工智能芯片市场潜力巨大,因此许多公司都纷纷加入人工智能芯片研发这一浪潮。
 
  技术专家
 
  英特尔在收购了一家名为Nervana的初创公司后,开始研究制造一款专研机器学习的芯片。IBM也正在研发一款硬件结构与神经网络设计类似的芯片。据LeCun透露,最近高通公司也在研制专门运行神经网络的芯片。LeCun对此熟悉,因为他所在的Facebook参与了该芯片研发过程中机器学习方面的技术搭建。高通公司主管技术的副总Jeff Gehlhaar证实了这一消息。他表示,高通公司在原型设计和开发上已经有了很大进展。
 
  同时,nVidia也在努力踏足这一领域。就在上个月,这家硅谷的芯片制造商聘请了Clément Farabet。Clément Farabet在纽约大学师从LeCun,主攻人工智能芯片构建,随后成立了研究深度学习的初创公司Madbits,该公司于2014年被Twitter收购。
 
  nVidia已经成为了人工智能领域的一股主导力量。谷歌和Facebook等公司要想让神经网络实现翻译功能,首先要“训练”神经网络,要让它掌握大量的现成翻译结果。nVidia公司制造的GPU芯片的典型运用就是缩短该“训练”阶段所需的时间。LeCun说,GPU芯片几乎垄断了这一市场,尤其是nVidia的GPU芯片。Farabet的到来说明nVidia公司与高通公司一样,也在探索如何实现神经网络在芯片中的运行。
 
  GPU也就是图形处理器(graphics processing units),一开始并不是为人工智能设计的。最初GPU是用于图形显示。大约5年前,谷歌和Facebook等公司开始把GPU用于神经网络“训练”,结果证明GPU芯片的确是完成这一任务的最佳选择,LeCun也相信今后GPU芯片仍然会发挥这样的作用。他说,现在程序员和公司都对GPU芯片十分熟悉了,并且有使用GPU芯片所需的所有工具手段。GPU芯片的这一地位很难被取代,因为取代它需要的是一整套系统。但LeCun也相信新型的人工智能芯片将会改变大公司运行神经网络的方式,在数据中心和消费者终端都是如此——这几乎涵盖了从智能手机到智能剪草机和吸尘器的所有设备。
 
  正如谷歌的TPU芯片所展现出的效果,尤其随着对图像识别服务的需求的增加,专攻某一功能的人工智能芯片将为数据中心带来全新的处理速率,在运行神经网络过程中,它们所耗电能更少,产热更少。LeCun开玩笑说,如果不想系统产热把一小片湖水都煮开的话,还是用人工智能芯片吧。
 
  与此同时,随着虚拟现实和增强现实技术越来越普遍,手机和可穿戴设备也需要相似的芯片。上周,Facebook在推出全新的增强现实工具时介绍到,增强现实技术要求神经网络能识别人周围的环境。但增强现实无法通过数据中心实现,因为图像在网络上来回传输耗时太长了,会大大影响现实体验的同步性。Facebook首席技术官Mike Schroepfer解释说,Facebook在实现某些功能方面已经开始倚重GPU和其他一些叫做数字信号处理器(digital signal processors)的芯片。但长期看来,所有智能设备都将配置新型的人工智能芯片。有需求,芯片制造商就会争先恐后努力满足这一需求。

第三十五届CIO班招生
国际CIO认证培训
首席数据官(CDO)认证培训
责编:liuhan

免责声明:本网站(http://www.ciotimes.com/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等)版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。