AI芯片对比:GPU/FPGA/ASIC/类脑芯片

2018-01-22 14:53:36 来源:我爱方案网 点击:3515

2017年,“人工智能”俨然已经成为所有媒体的头条热点,在媒体和资本的推动下,AI以迅雷不及掩耳之势向我们汹涌奔来。从政策层面,2017年关于AI发生了三件大事,一是发布了人工智能发展规划;二是人工智能首次写入十九大报告;三是很多城市,如上海、重庆等都在进行人工智能规划。

从数据来看,2013年只有100多家组织机构研究深度学习和人工智能,而到了2015年,这个数字已经飙升到3409家,两年时间增长30多倍。就连以电动汽车起家的特斯拉也宣布开始设计AI芯片,马斯克请来了AMD公司Zen架构的开发者Jim Keller,担任自动驾驶硬件副总裁。

在AI热闹非凡的大背景下我们也需要认真思考:人工智能是否需要专门的芯片?现有的技术架构具有怎样的优势?近期,北京建广资产管理有限公司主办了一场以“构造’芯’生态”为主题的沙龙,赛迪智库半导体研究所副所长林雨从AI芯片定义、分类、生态环境、投资等方面做了分析。

人工智能如果按照架构进行划分,有三个重要元素:数据、算法和算例,其中算例就是芯片,算例是基础,算法是核心,数据是保障。先看人工智能的定义,从广义上讲只要能够运行人工智能算法的芯片都叫人工智能芯片。但是深入分析,林雨表示,“只有针对人工智能算法做了特殊加速设计的芯片才可以称作为人工智能芯片,市场上真正做到了对芯片里面的架构做了特殊加速设计的公司少之又少。”

三个维度对人工智能进行分类

分别从功能、应用场景和技术架构对人工智能进行了分类:

从功能上来看,人工智能包括推理和训练两个环节。在训练层面,通过大数据训练出一个复杂的神经网络模型。目前训练环节主要使用英伟达的GPU集群完成,谷歌的TPU2.0也支持训练环节和深度网络加速。推理环节是指利用训练好的模型,使用新数据推理出各种结论。总得来看,训练环节对芯片的性能要求比较高,推理环节对简单指定的重复计算和低延迟的要求很高。

从应用场景来看,人工智能芯片应用于云端和设备端,在深度学习的训练阶段需要极大的数据量和大运算量,单一处理器无法独立完成,因此训练环节只能在云端实现。在设备端,智能终端的数量庞大,而且需求差异较大,比如VR设备对于实时性要求很高,推理环节无法在云端完成,要求设备有独立的推理计算能力,因此专用芯片的需求还是很大。

从技术架构来看有四类:一是通用性芯片,如GPU;二是以FPGA为代表的半定制化芯片,如深鉴科技的DPU;第三,ASIC全定制化芯片,如谷歌的TPU;第四,类脑芯片。

GPU/FPGA/ASIC/类脑芯片,各有怎样的优势?

为了进行大数据处理,当前的方案一般采用高性能的处理器辅助MCU进行计算,但是随着摩尔定律时间周期拉长,处理器上可集成的器件数量会达到极限,而数据量还在不断增加,因此我们需要通过架构的变化来满足数据量的增长,这就是人工智能芯片推出的背景。

目前来看,人工智能芯片有四类架构:GPU、FPGA、ASIC和类脑芯片。

GPU:是单指令、多数据处理,采用数量众多的计算单元和超长的流水线,如名字一样,图形处理器,GPU善于处理图像领域的运算加速。但GPU无法单独工作,必须由CPU进行控制调用才能工作。CPU可单独作用,处理复杂的逻辑运算和不同的数据类型,但当需要大量的处理类型统一的数据时,则可调用GPU进行并行计算。

FPGA:和GPU相反,FPGA适用于多指令,单数据流的分析,因此常用于预测阶段,如云端。FPGA是用硬件实现软件算法,因此在实现复杂算法方面有一定的难度,缺点是价格比较高。将FPGA和GPU对比发现,一是缺少内存和控制所带来的存储和读取部分,速度更快。二是因为缺少读取的作用,所以功耗低,劣势是运算量并不是很大。结合CPU和GPU各自的优势,有一种解决方案就是异构。

ASIC芯片:是专用定制芯片,为实现特定要求而定制的芯片。除了不能扩展以外,在功耗、可靠性、体积方面都有优势,尤其在高性能、低功耗的移动端。谷歌的TPU、寒武纪的GPU,地平线的BPU都属于ASIC芯片。谷歌的TPU比CPU和GPU的方案快30-80倍,与CPU和GPU相比,TPU把控制缩小了,因此减少了芯片的面积,降低了功耗。

很多人认为ASIC是人工智能芯片的一个主要发展方向,其实在ASIC芯片里还有一个特殊的群体—类脑计算,林雨认为,“这才是真正的人工智能芯片未来发展的方向。类脑计算是真正模拟人脑进行设计,人脑的特点就是神经元进行传输数据。当我们用硬件去模拟人脑时,在硬件环节里还有许多多余的元素,而类脑芯片就拟合人脑的作用。要做类脑芯片非常难,IBM、高通、英特尔等公司的芯片策略都是用硬件来模仿人脑的神经突触。”

四种架构将走向哪里?

将以上四种架构对比,GPU未来的主攻方向是高级复杂算法和通用性人工智能平台,其发展路线分两条走:一是主攻高端算法的实现,对于指令的逻辑性控制要更复杂一些,在面向需求通用的AI计算方面具有优势;二是主攻通用性人工智能平台,GPU的通用性强,所以应用于大型人工智能平台可高效完成不同的需求。FPGA更适用于各种细分的行业,人工智能会应用到各个细分领域。

ASIC芯片是全定制芯片,长远看适用于人工智能。现在很多做AI算法的企业也是从这个点切入。因为算法复杂度越强,越需要一套专用的芯片架构与其进行对应,ASIC基于人工智能算法进行定制,其发展前景看好。类脑芯片是人工智能最终的发展模式,但是离产业化还很遥远。

投资投哪里?

第一,关注具有纵向产业链整合能力的企业。因为未来在人工智能领域侧重生态整合。单独做芯片的公司不如既掌握芯片又掌握算法公司,因此,那些算法和芯片兼具的企业更值得关注。

第二,专攻终端应用市场,人工智能芯片的应用场景里有两个:一个是在云端,一个是在终端。云端格局应该变化不大,但是在终端方面变数未定,这是对国内企业来说是一个不错的切入点,边缘计算值得关注。

第三,关注专用芯片,ASIC从功耗、技术都具有优势,是未来AI芯片发展的主要方向,尤其要关注是否有加速环节。

有了资本和媒体的热捧,AI已经在全球范围内遍地开花,顺势而为的创业者也不在少数。目前,国内已经有20多家初创企业在做人工智能芯片,但是评估一家企业的技术能力是第二位的,第一位的考察点要看他们是否能真正能将技术变现,是否能将技术转化为商业产品。因此,看一家AI芯片设计企业,商业能力要大于技术能力,这才是融资点。

本文由大比特资讯收集整理(www.big-bit.com)

声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请与我们联系,我们将及时更正、删除,谢谢。
Big-Bit 商务网

请使用微信扫码登陆

x
凌鸥学园天地 广告