加州新创公司InnoGrit将AI核心放进SSD中

加州新创公司InnoGrit将AI核心放进SSD中

为了寻求更多元的应用场景,以及算力的渗透,AI芯片厂商无所不用其极的想让自己的方案打进各种层级的产品当中,不论在家庭、汽车、手机、计算机等终端产品,亦或者是工厂生产、管理或仓储设备皆是如此。

然而在存储媒体方面,虽然有研究者利用和内存作用相当类似的忆阻器来打造类神经网络处理机制,用以处理深度学习方面的工作,但相关技术毕竟还不成熟,多数还是处于实验室发展阶段。而加州新创公司InnoGrit则是推出了一组用于固态硬盘的控制器,其中包含了3颗芯片,其中有用以控制存储工作,也有负责AI计算的部份。







InnoGrit的董事长兼创始人吴子宁是个华人,他在Marvell工作了17年之后,于2016年时创立InnoGrit,过去也曾在中国媒体中露面。当初他提过一个概念,就是过去存储负责的工作就是存储,而没有参与到计算工作,如果存储端本身就可以进行计算,那么就可以省去很多数据搬运的工作,大幅降低系统的带宽需求。

而具体的概念,其实就是在把一批数据放进硬盘中时,若计算机需要在这堆数据中找出特定的内容,计算机自己就必须逐笔数据进行比对,找到符合需求的才捞出来显示或执行。

而数据在这个过程中来来回回,就会产生很多的带宽消耗,如果,存储媒体本身就可以进行计算,那么计算机只要告诉存储媒体找出符合特定特征的数据,而其他的工作就交给具备计算功能的存储媒体来进行,由于搜索和比对都在本地端,不需要经过总线进行搬移比对,效率更高,对能耗也更节省。

吴子宁所提出的思路就是存储本身就是一个AI计算组件,和传统负责计算的CPU、GPU可以相辅相成。

而随着NAND闪存的价格不断触底,他认为现在已经是个非常好的时机点,可以推出适合的方案,实现相关的技术概念。

由于数据中心的客户基本上目前开的新案子几乎都是基于闪存的设计,这也让他意识到,在存储设备中嵌入AI计算的思路将会具有庞大市场价值。






而为了达成这个技术概念,吴子宁利用台积电的28nm,以及16/12nm FinFET制程打造了四组不同的控制器方案,支持的容量分别从2TB到最大32TB,最高传输带宽可达7GB/s。

最高端的Tacoma方案集成了深度学习核心,可以实现存内计算的功能。

不过InnoGrit的概念其实三星已经抢先一步达成了,该公司在2018年底就推出了一款嵌入Xilinx Zynq FPGA的固态硬盘,号称可以处理各种AI,数据库和视频应用的存内计算加速。另一方面,Phison电子和Marvell也都推出功能和InnoGrit类似的控制芯片组,不过与InnoGrit不同的是,这些公司的方案并没有强调内嵌AI计算能力。

其实原本固态硬盘就具备相当庞大的算力,目的是为了要保护硬盘中的数据完整性,这些计算原本就是通过CPU和DSP来进行处理,如今额外增加神经网络计算能力其实也是相当合理的事情。而随着这类设计的逐渐普及,固态硬盘具备计算能力后可以创造出更多元的AI应用,虽然这类应用会先在服务器中进行尝试,但未来也有可能普及到一般计算环境的存储设备中,借以加速各种AI应用中的数据处理,并降低系统因子据传输所付出的额外功耗。

发布于 2019-08-02

文章被以下专栏收录