云指建站

一种创新的建站方式



新闻动态

图片展示

AI芯片全景

发表时间: 2019-07-14 22:00:03

关注: 6972

首先是AI Chip Landscape的最新更新。点击文末的"阅读原文"可以访问详细列表。从开始做这个AI chip list到现在有两年多了,简单写一点观察和思考吧。


现在已经不用争论AI硬件加速的必要性了,未来基本上所有芯片都会有专门的AI加速设计,差别只是放多少面积的问题。所以我们可以看到这个列表上基本包括了所有传统的芯片厂商。


非典型芯片公司做芯片已经是比较普遍的现象,甚至越来越多的展现出优势。特斯拉自己做芯片,背后是上百万量车在路上“优化”自动驾驶算法,芯片得以“量身定制”(多角度解析Tesla FSD自动驾驶芯片)。别人做自动驾驶芯片,如何和他竞争?Google,Amazon,Facebook,Apple,Microsoft也差不多,有应用场景的支持,足够的资金和工程能力,芯片当然更容易成功,也就是所谓“降维打击”(为云而生又生于云中的芯片给我们的启示)。传统芯片厂商和以芯片为核心产品的初创公司如何和他们竞争?这些都将是决定未来竞争格局的关键问题(也是最值钱的问题)


Startup不断涌现,不时有大量融资的消息但差异化也越来越难。仅仅是“采用专用架构”已经没有太高的门槛了,第一批初创公司现在比拼的是工程能力和客户能力。采用新兴技术的公司,比如存内计算,模拟计算,光计算,类脑等等的确实有差异,但落地还有更长的路要走。即便如此,每个领域也都已经挤进了多个玩家。另一个寻找差异的方向是垂直应用,但如果这类应用的技术门槛低则所谓差异化优势也不明显; 技术门槛高的比如自动驾驶则需要动员大量的资源。总得来说,初创公司面临的压力会越来越大。当然,对于初创公司来说,在毕业之前什么时候压力不大呢?


“硬件好做,软件困难”是大家普遍反映的问题。芯片配套的工具链是最头疼也是现在备受关注的地方。而且,软件工具的优化基本是无止境的,单核解决了,还有多核,多芯片,多板卡的问题;NN加速解决了,还有非NN算法的问题,异构系统的问题;再有就是软硬件联合优化的问题。这一年来,可以看到大家在Framework和Compiler上的工作越来越深入。乐观估计,一年之内针对NN的编译器技术基本可以稳定(也许能统一)。但其它问题还需要持续不断的努力。


AI硬件的Benchmark,目前工作做的最扎实的是MLPerf(刚刚发布了Inference的Benchmark),AI硬件领域北美最好的公司都有参与,可惜国内企业参与不多(后面可能给大家做比较详细的介绍,促进在国内的推广)。MLPerf目前最大的问题还是部署的工作量大,Training方面就只有几个大公司提交了结果。同时,关注度比较高的是ETH Zurich的AI-Benchmark,和传统的手机跑分类似,直接用手机应用运行的结果给芯片的AI能力评分,虽然不一定公平准确,但部署简单,目前已经覆盖了大部分Android手机芯片。


AI芯片热确实带动了“架构热”(黄金时代),二三十年前的体系结构热潮中失败的各种尝试似乎又都有重见天日的希望,也给大家的差异化尝试提供了足够的素材。不过,大家还是要慎重看待,造成当年失败的问题今天就没有了吗?


和整个AI领域一样,AI硬件从学术成果到商业行为的速度也是前所未有的。好的一面是新技术可以更快进入产品,科研人员也可能更快的获得回报,对创新有很大的促进作用。但另一方面,实现一颗芯片,需要大量的工程工作。而学术研究一般只要点的突破,这两者之间的距离比其它AI应用领域要大得多。现在很多宣传,往往是讲一点上的优势,而不提要落实为产品所需的大量的“脏活累活”。这种错误导向,既可能坑了投资人,也可能伤害了创新者。


最后,AI芯片热有明显的溢出效应,很大程度上带动了相关技术和产业的进步。具体可以看看我之前的文章“AI芯片的“冷”与“热””。




以上只是个人一点点观察和思考,欢迎讨论,欢迎批评指正。


推荐阅读  

专用处理器设计

为云而生又生于云中的芯片给我们的启示

AI芯片的“冷”与“热”

多角度解析Tesla FSD自动驾驶芯片

后通用芯片时代:专用芯片兴起背后的经济学

AI芯片0.5与2.0

从AI Chip到AI Chiplet

在体系结构黄金期,ESL设计方法学能否“焕发青春”?
AI/ML/DNN硬件加速设计怎么入门?

AI芯片在5G中的机会


题图来自网络,版权归原作者所有

本文为个人兴趣之作,仅代表本人观点,与就职单位无关


长按二维码关注

文章内容如有侵权,请联系站长删除。

扫码加盟申请

友情链接

城市分站