于无声中听惊雷,AI神器落人间【下篇】

大家好,老王回来了!书接上回,话说在上篇中老王提到这些年一直在思考的几个问题,老王带着这些问题去寻找心仪的方案。哎,说到这,老王不得不先吐槽这些年的市场乱象。
只见新闻 不见芯片
AI芯片市场可谓火爆异常,做芯片已经不再是芯片公司的专利,这几年可谓全民齐上阵,你方唱罢我登场,芯片指标没有最高只有更高。每天的科技新闻绝大部分跟AI有关,而这些AI新闻中必有AI芯片相关报道,独角兽如雨后春笋,放卫星此起彼伏,今日弯道超车,明天巨头崩溃,形势一片大好,不亦乐乎。奇怪的是,你们到底在市场上见到过谁家的芯片?当被问到这个严肃的问题时,奇葩的回复一个接着一个。
A公司:对不起,我们的芯片将自用,不对外销售 顺便:如果我们现在盈利,那么说明我们没有未来”(PS:观点新颖!这样咒自己公司?投资人知道不?)
B公司:我们的技术世界领先,但目前只做云侧芯片,在端侧我们只提供IP”(PS: 与黄教主不共戴天?技术过硬为何不出端侧ICIP盈利周期太长,不懂?)
C公司:我们的芯片将于今年Q3实现量产”(PS: 亲,您去年年初就在说同样的话!)
D公司:我们将于年内推出第三代芯片”(PS: 劳驾,请问贵司第一代和第二代芯片在哪里?)

 

。。。 。。。
 


 

鱼龙混杂 真假难辨
常被混淆的概念比如:机器视觉 = AI。很有必要谈一下机器视觉(CV),这门技术有三十多年的历史了,传统机器视觉是手工设计特征算子,并不算是新技术,今天的市场上仍然充斥着不少采用传统机器视觉的产品(PS:只不过换了个名字叫“浅层神经网络”,国人的创新意识无处不在)。我们之前谈到过这一大波儿AI以深度学习技术为代表,以卷积神经网络替代手工算子实现端到端应用,而深度学习与传统机器视觉的比拼在2012年时就有了结论:深度学习以无可争议的优势胜出。所以,当诸位研判方案时,应该首先确定到底是采用传统机器视觉还是深度学习方法,到底是手工设计特征算子还是卷积神经网络。众所周知,传统机器视觉对环境的适应性和泛化能力很差,准确率低,产品的售后调参能调到你崩溃,根本无法大规模部署。老王直言,坑就在那里,睁大双眼,不要去踩。
不畏浮云遮望眼
常言道“外行看热闹,内行看门道”。老王行走江湖几十年不敢说阅芯()无数,但用过的芯片接触的公司也是不胜枚举。评估一款芯片,由表及里,你会发现市场上被称为AI芯片其实本质却是DSPPS:多核高配ARM芯片同理),区别仅在于是自研还是集成第三方IP,必须要肯定的是,自研DSP并不简单,比如Movidius公司(已被Intel收购)十年磨一剑打造的Myriad系列是目前市场上为数不多能量产的方案,其他公司基本走集成IP路线,常被采用的IP包括CEVATensillica, Imgtec, Vivante等等(PS:还有eGPU甚至eFPGA,无法落地端侧的方案老王就不赘述了,集成IP却言之创新让老王不敢恭维)。必须要指出的是:无论自研还是集成IP,只要计算引擎的本质是DSP(ARM)那么难言创新,因为它根本无法实现“高性能+低功耗”。DSP方案常被用来处理传统机器视觉,但用来处理卷积运算则根本无法胜任。DSP是万金油不假,但也只能充当过渡性方案,说到这,老王又把video行业的例子搬出来,想当年TI公司达芬奇系列就是DSP方案处理video,一度也是轰轰烈烈,而最终你看到有多少用达芬奇处理视频编解码的?老王选芯片不想重复“昨天的故事”,老王要“拥抱未来”。诚然,未来人工智能在端侧以“智商水平”来分级,算力至少应该从几十TOPS起步,到几百TOPS才能满足基本的智商要求,这种等级的算力是DSP这种通用型芯片所望尘莫及的。老王直言,看清形势,上车要趁早。

 

惊鸿  自成一
感谢诸位看官拨冗从头看到这,终于到了解开神秘面纱的时刻。老王苦心孤诣,不忘初心,潜心打造AI技术平台,服务于广大开发者。老王的平台取名“若派Ropal”,源自“翩若惊鸿,自成一派”,“若派”平台主推的这颗AI芯片的确称得上自成一派,不同于现有市场上任何流派,符合老王列出的所有条件。这家芯片公司网上新闻极少,低调且神秘,再次强调老王并非等闲之辈,还是挖掘到了很多信息(PS:韩国某大厂朋友给老王送来的情资,嘿嘿,老王把隔壁都拓展到国外了)。这家公司名叫Gyrfalcon Technology Inc,芯片型号SPR2801S,是一款AI协处理器,专注加速卷积运算,老王重点要说的是这款芯片的架构创新,“高性能+低功耗”真的可以同时有,毫不夸张的说,开始老王也认为是忽悠,但真正评估后发觉,强中自有强中手,一山还有一山高,你想不到是因为你道行不够深。不说别的,你可知道这款小小的芯片之上集成了多少个计算单元吗?答案是28000多个!而峰值功耗只有0.3W,你没看错,老王开始也认为是看错了… …闲言少叙,重点说创新,这款芯片集学术界最前沿的三项技术于一身:
1二维卷积PS:美国MIT大学发表的论文Eyeriss了解一下);
2量化与压缩PS:美国Stanford大学发表的论文EIE了解一下);
3存算一体PS:美国CMU大学发表的论文PiM了解一下)
等一下,有人可能会说“老王,能再通俗一点吗?我们听不懂!”好的,没问题,
制约AI芯片发展的难题之一是运算单元与片外存储之间的数据移动(data movement)无法消除,只要这个问题不解决,
那么AI芯片特别是在端侧“算力上不去,功耗下不来”的局面就无法根本改善
GTI的创新则很好的解决了这个问题。让老王惊讶的是,当这三项技术还停留在论文阶段时,竟然有公司已经实现了,那背后的设计者是值得深挖一下的,去隔壁查了查,果然不出所料,这款芯片的首席设计师是一位名副其实的芯片界老炮儿,原来此人在1988年伯克利博士毕业时的论文即是CNNPS:彼时还不叫卷积,而是细胞,其实一回事),一举荣获当年IEEE的最佳论文奖!此外,论文做到了知行合一,之后作者以模拟电路演示手写字识别以论证其CNN理论。
 
所以嘛,创新哪有这么简单,原来是深藏三十年的功力今朝试锋芒。内行看门道,掌握这样技术的公司还有什么样的卷积加速芯片是不能做的?深入了解后发现,这款芯片架构是完全自主知识产权,据说还申请了多达六十几项专利,杜绝出现“如有雷同纯属巧合”的事件,这样看来GTI以后不自成一派也不行了。        
上周业内最火的新闻莫过于华为高调发布两款AI芯片,继谷歌之后,华为也完成了云与端的闭环。何为闭环?说白了就是既有云侧训练芯片,也有端侧推理芯片,提供从训练到推理的全栈解决方案。对于其他大部分AI芯片公司来说,这无疑是在瑟瑟秋风中送上一首《凉凉》,没有闭环能力的公司在未来可想而知,为数不多的机会可能会出现在端侧指标上以数量级的优势胜出,但又有几家公司能做到呢?(PPT造芯除外)。不过,对老王来说还好,第三次强调老王并非浪得虚名,老王看上的她必须有闭环能力(凹凸有致)。
最后,避免软广之嫌,避免老王卖瓜,避免给无辜小编找麻烦,欲了解老王的力作请猛戳这里:http://www.ropal.com.cn 或进入bbs.ropal.com.cn,ropal人工智能论坛PS: 电脑打开链接效果好)
勾搭老王就是这样简单,欧耶!