专家
公告
财富商城
电子网
旗下网站
首页
问题库
专栏
标签库
话题
专家
NEW
门户
发布
提问题
发文章
AI芯片为何突然火了
2019-04-14 22:02
发布
生成海报
站内文章
/
模拟电子
14688
0
1543
细数芯片的历史,就是一个从专用芯片转向通用芯片,又转为专用芯片的过程。
最早追溯到上世纪60年代,Intel从专用芯片转向通用型芯片中央处理器(CPU),英伟达转成GPU,这两年又产生了TPU。
这个整套体系都是一个把芯片越做越普世化的过程,但这两年由于终端要降低成本,所以又要返回到专用芯片,因为通用芯片相对来说,效率比较低,制作成本比较高。
所以,这两年专用芯片开始火起来。
从通用型的、服务器型的、集成型的芯片,转成专用型的,部分设备使用的,有一定功能的芯片,再加上这两年正好赶上AI大爆发,大家就很自然地把AI的需求烧制到这些芯片里,也就是我们看到的AI芯片异军突起。
为何终端场景会催生专用芯片?
终端的场景为什么一定要用终端芯片,而不能通过一个捕捉器做网络传输送到云端、送到服务器端,用服务器的CPU、或GPU、或TPU去处理,然后再返回数据呢?
是因为你的网络无论多快,中间都有几百毫秒的时间差,而终端芯片未来都需要做到当机立断、直接分析。
比如一个机器人,它看到你之后,需要迅速分析出你有什么特点,并跟你对话。这个过程中,如果机器人只有接收器,需要传送到云端再回来,无论网络多快,都会有时间差。
所以,为了提高响应速度,终端开始催生自带处理器的需求,比如能做图像识别、语义识别、语音识别,运动机能的一些处理等,那么这个时候,终端就需要具备一定的人工智能能力(AI能力)。
专用芯片起势后,玩家们到底比拼什么?
当专用芯片这个需求起来之后,玩家们就要开始比拼了,具体来说,比的是:
第一,你的硬件结构是不是最优。
硬件行业的特点是:没有最优、只有更优。
硬件永远都在迭代,背后的原因,主要是摩尔定律在起作用。此外,当摩尔定律晶体管变成量子化的东西后,它会继续进化,从分子层面进到原子内部层面,再继续找其它的计算位。
第二,算法是不是最优。
前两年大家非常痴狂的去搞神经网络算法的时候,变体非常多,从最开始简算的RNN变到LSTM,变到更为复杂的结构,从最开始设计CNN,到CNN的复杂结构,再到用CNN做对抗网络…
在大家疯狂竞争算法的时候,2017年又出来一个理论说:神经元的基础单元不应该是神经,而应该是一个胶囊;这样一来,算法底层又改了,Hinton先生把自己30年前的学术成果给推翻了。在Capsule Network中,in&out在单个处理单元上变得更复杂,虽然网络连接过程还是原来的样子。
所以,很多人又只能整个推翻,重来。
第三,工程细节是不是最优。
人们也发明了很多种方法,比如原来是全连接的,后来又有CNN部分模块连接,然后又出现了很多类似Dropout的模式,连接着同时遗忘着,发现比正常的还更好。
第四,工程上的创新每天都在发生。
每个工程师都有工程上的创新。100个工程师里如果有一个工程师有了意义深远的创新,那么对于整个行业来说,又是一场大变革。
无论是怎样的创新,都在不断突破,不断提升效率。比如,在算法上,AlphaGoMaster和AlphaGo Zero,后者的效率相对前者就有突飞猛进的增长。
所以,一旦底层被改变,一切又变得不一样了,又得迭代。比如,原来可能是20秒解决,你能19.8秒解决;但现在,突然底层一变,你变成10秒解决了,就又是一层迭代了。
没办法,这个行业就是这样。
从硬件、软硬结合,软件、算法几个方面来看,每天都在迭代,所以它很难:
由于它没有定型,无定型态的结果导致对专用芯片的固定性要求是非常苛刻的。
因为专用芯片很大的问题是一旦定板、开模,这个东西就不能改,这是一个很大的问题。所以,如何做一个适用性最强的专用芯片,这是非常重要的。一般的专用芯片做完之后,比如只服务于某一种语音识别机的芯片,一旦算法更新,底层对模块的要求就又不一样了,那么这个专用芯片就不能用了。于是,只能再做一个新的专用芯片。
这个事情的迭代速度太快了。
芯片的三种类型:
前面大致罗列了专用芯片崛起的背景,接下来我们具体聊一下芯片到底有哪三种类型:
集成型的芯片(CPU、GPU、TPU),属于它的模块阵列非常统一的,它能处理几乎所有的事情,又叫通用型芯片
FPGA可编程门阵列
专用芯片
其中,FPGA相当于编写硬件,通过改变硬件可以随时调整功能逻辑,但FPGA有以下几个大问题:
成本比较高,真正好的FPGA要8000元-1万元。
编写复杂,门槛高,修改难度大。
编程过程中的效率比高级算法低,这样就导致开发难度也比较大。
所以,FPGA是个过渡过程,它能够衔接通用型芯片和底层专用芯片。
说完FPGA,再说说专用芯片。
专用芯片的特点是价格极其便宜,只要你开模、打板之后,基本上一片50-100元就搞定了,但开模费500万,而且一旦开模就改不了
。(
营长注:这里500万为概数,杨歌想表达是开模费很高,对公司来说,是一笔不小的负担。据营长所知,开模费的量级一般在数百万-数千万之间。)
如果用数学的方式来理解这三类芯片,那就是:
专用芯片又叫阶跃函数,意思就是,这个东西开了模之后,下一次你要再改,你就得整个上一等;
FPGA是线性函数,慢慢涨、慢慢涨;
CPU、GPU等集成型芯片是指数函数,成本高,但它是一个好的模式。
专用芯片的成败关键:
目前,大家倾向于回归专用芯片,这也是因为专用芯片在2017年有两大推动力:
比特币的挖矿机
和
人工智能
。
基于这两股力量,编写专用芯片需求来了,因为FPGA和CPU成本太高了。
但专用芯片的问题也来了,那就是,无论哪个时代,不管你是20世纪70、80年代,还是现在,专用芯片都会有过时的一天,因为技术一直在迭代。这时候,就是考验你对专用芯片把控力的时候了,一句话,你设计的专用芯片到底能支撑业务走多久。
如果你编出来的专用芯片,能持续三年使用,那么同期你就可以去研发另外更新的专用芯片。三年后,当原来的专用芯片产能要下降的时候,你可以拿新的专用芯片顶上。你要能顶上,那这个能力就厉害了。
但如果你的专用芯片半年就过时了,那你的成本就太高了,因为你每个专用芯片的打板就需要500万以上,对初创公司来讲是完全承受不起的。
(营长注:此为概数,只是为强调打板花费较大。)
如果你还不停地在打板,那你的公司就危险了,你还不如用FPGA和CPU来做,现在多核CPU也能完成。
现在专用芯片的一个竞争在于,你编写出来专用芯片是否鲁棒性、适应性和存续性足够强,是否能够适应更多的人工智能算法模块,是否能扛住算法变体…
比如当CNN一变体,卷积核一变体,这个芯片能不能扛住?当LSTM的循环网络内部结构中,忘记门和记忆门这两个发生变化,你能否扛住?
当然,Capsule Network一出来,不仅你扛不住了,大家都扛不住了。
总的来说,你要让你的专用芯片在容错性和鲁棒性、适应性上做到最强,这样,你的成本才能算得过账来。但大部分技术人员的账,可能算不了三到五年的时间。
还有些人把目光放在非常细的地方,一定要编到极致,保证局部的鲁棒性、容错性提到最高,但长期的、中长期,比如三年期,这样不一定行。
比如,在交通图像监察识别上,你怎么用都不出错,正确率99.9%,但突然过两年算法一升级,你怎么办?
因此,我不建议把目光放到单个场景的适应性上,我认为应该放在一个长期的、场景变革的使用性上,这点非常重要。
这些问题其实是现在AI芯片竞争最重要的底层逻辑。在AI芯片领域,我们投了鲲云科技,他们的联合创始人为斯坦福的客座教授、帝国理工的教授、英国皇家工程院院士,发表300多篇的论文。
他们的特点能把芯片的适用性做得很好,芯片的场景适应性、网络适应性、算法适应性非常强。
同样做的很好的公司还有地平线、寒武纪、深鉴等,不过也有一些公司,场景化的正确率只有95%,甚至85%,那么这些芯片可能就没法用,或者只能调动一定的模块函数,不能调动大部分模块函数。
目前来说,深度学习训练过程是不需要用AI专用芯片的,因为AI专用芯片主要还是在某一个终端应用场景用。一般来说,终端人工智能芯片并不执行训练过程,它只执行使用过程。
这是大家容易产生理解误区的一个点。
AI芯片市场距离饱和还很远:
说到终端市场,英伟达也在猛攻终端市场。英伟达去年出了一个TX2的新型芯片(也是终端芯片)。但英伟达的终端芯片是一个轻版的集成化芯片,是把它集成化的GPU镶在了一个小的芯片上,形式了一个专用芯片。所以,现在的AI专用芯片还需要扛住英伟达的竞争。
目前,人工智能技术有三层:
基础数学物理层
技术模块中间层
应用层
技术模块中间层(简称模块层)
是指图像识别、语言识别、语义识别、运动机能识别;底层,即基础数学物理层,就是芯片,数据传输、数据存储结构、算法结构、算法模块。
而应用层中,几个比较大的场景有:
智能家具、智能房屋、智慧城市
机器人
个人语音助手
这几个场景的入口模块都需要完整的、完全标准的模块层,就是说语音识别、语义识别都则需要非常精准,无论是器械,还是一个机器人,都需要模块层要很成熟,同时需要底层芯片层很成熟。目前,大家都在竞争这个市场。
二十年后,周围的物体可能拍一拍都能动、都能说话,每一个东西都需要两个基础的模块体系。
第一个模块体系:硬件模块体系,就是它的硬环境。
第二个模块体系:也就是软环境。
软环境就是科大讯飞、商汤、旷视等等在做的东西,硬环境就是英伟达、通讯云、鲲云、深鉴等公司在做的。
现在的AI专用芯片市场,如果说市场饱和度满分是10分,现在也就1分不到。
虽然现在才1分不到,但今年的AI芯片公司突然火起来,就是因为大家预期了十年之后的应用场景,十年之后这个市场是很大的,不过大到什么程度不好做预期。
现在市场上的几家公司,显然还是不足以形成大的竞争。
如果做个比喻,现在的市场,也就是刚刚进入体育场,裁判还没有开始吹哨的时候。
对于AI专用芯片来说,应用场景还没有完全开发完,有人去做无人机监测、有人去做道路摄像头监测、有人是做家居环境。总的来说,目前各家的应用场景都还没有锁定,还处在一个恶补基础知识的阶段。
当然,这个阶段完成之后,可能有的转向交通,有的转向家庭环境了,各有各自的立足的垂直领域,并继续迭代。那么等到那时候,可能就不竞争了。
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
Ta的文章
更多
>>
AI芯片为何突然火了
0 个评论
热门文章
×
关闭
举报内容
检举类型
检举内容
检举用户
检举原因
广告推广
恶意灌水
回答内容与提问无关
抄袭答案
其他
检举说明(必填)
提交
关闭
×
打开微信“扫一扫”,打开网页后点击屏幕右上角分享按钮