AI通用芯老玩法新套路:GPU/FPGA脱颖而出,CPU/DSP还有哪些可能

与非网 中字

芯片作为产业链技术要求最高的环节之一,往往是最难攻克的阵地。2016年,我们谈中国集成电路在芯片环节还比较薄弱;2017上半年,我们说我国与美国的差距主要在硬件方面,尤其是芯片环节;2017下半年及2018年,我们看到一批本土AI芯发布,很多还带有“首款”的荣誉称号,首款嵌入式AI芯、首款人脸识别AI芯、首款AI移动芯片等等。

似乎,集成电路最难攻克的环节——芯片,在AI大环境下,一切都变得那么EASY。这是真的吗?

以上是一位与非网友向小编表达出的疑惑。近期,小编收到很多网友关于AI芯的疑惑。那么,在近期的《AI发现》中,我们将结合与非网友的疑惑,讲一讲AI芯那些事。

AI芯定义

广义上讲,可以运行AI算法的都可以称为AI芯片,只不过效率有高有低;狭义上说,针对AI算法专门做了特殊加速设计的芯片才是AI芯片。

AI芯的硬件核心

AI芯的核心就是神经网络加速器,或者叫深度学习加速器。

AI芯分类

芯片架构,四大类芯片

通用类芯片,代表如CPU、GPU、FPGA;

基于FPGA的半定制化芯片,代表如深鉴科技DPU、百度XPU等;

全定制化ASIC芯片,代表如TPU、寒武纪 Cambricon-1A等;

类脑计算芯片,代表如IBM TrueNorth、westwell、高通Zeroth等。

功能,训练( Training)与推理(Inference)

训练(Training):通常需要通过大量的数据输入,或采取增强学习等非监督学习方法,训练出一个复杂的深度神经网络模型。

该过程对处理器的计算能力、精度、可扩展性等性能要求很高,能胜任此环节工作的芯片有英伟达的GPU集群与Google  TPU2.0。

推理(Inference):利用训练好的模型,使用新的数据去“推理”出各种结论。

相比训练过程,推理的计算量像是个“小儿科”,尽管如此,但此过程也涉及大量的矩阵运算。GPU、FPGA和ASIC在此过程发挥作用。

应用场景,云端(Cloud/DataCenter)与设备端(Device/Embedded)

目前,训练环节只能在云端实现。GPU、FPGA、ASIC(Google TPU1.0/2.0)等都已应用于云端训练环境。

设备端对AI芯的需求差异大、数量庞大,低功耗、低延迟、低成本是该领域需求趋势,如今的xPU与ASIC热更多集中于该领域。

搞清楚各类芯在AI格局中所在的位置后,我们就集中精力解答如下的问题:

AI芯与AI通用芯的趋势是什么?

AI通用芯的玩法有哪些? 谁才是王道?

与非观点:

AI芯的趋势:从通用到专用。

该趋势包含两个层次的含义:某些应用场景,AI专用芯取代AI通用芯;AI通用芯,从通用到为AI定制。

AI通用芯玩法:CPU、GPU、FPGA和DSP共存。

市场首批AI芯片,几乎都是以现成的CPU、GPU、FPGA和DSP加以组合而成,是和平共处的局面;如今,他们却被视作互撕的几股势力。或许情况并不是这样,各种AI芯玩法都有存在的意义。

AI通用芯之间的竞争,是一场旧势力新套路的竞争。

与非论据:

AI芯的趋势

曾经提及AI通用芯的较量,主要是CPU与GPU两股势力;后来CPU渐渐淡出大众视线,GPU成为AI界宠儿。2016~2017年,英特尔与英伟在AI市场的地位及发展也能说明这一点。

黄仁勋曾在演讲中表示,CPU的时代结束了。

英特尔怼回去说:不单CPU不行了,GPU也不行了。

这说明,英特尔肯定了通用CPU在AI领域无力的事实,同时对通用GPU也提出了质疑。

那么,短板在哪?是“通用”还是“处理器类型”?

小编认为是“通用”,而不同处理器类型是面向不同应用场景总有自身可发挥的优势。

GPU赢过CPU就是因为GPU比CPU专用。GPU借助在深度学习方面的优势,成为最有竞争力的AI芯片;CPU通用性强,适用于串行计算,对于AI算力而言,较缓慢。当然,CPU与GPU都不是发展AI最专用的芯片。

声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存