
451 Group分析師James Sanders表示:“在大規(guī)模并行的情況下,人工智能的工作負(fù)載表現(xiàn)得最好。”根據(jù)人工智能算法和數(shù)據(jù)的特殊需求定制的人工智能芯片,與其他處理器一樣,從300毫米的晶片開始,但最終幾乎是業(yè)內(nèi)最大的。
Esperanto的ET-SOC-1處理器是570平方毫米,有240億個晶體管,聯(lián)合創(chuàng)始人Dave Ditzel在Hot Chips上說。特斯拉的D1處理器是其剛剛開始構(gòu)建的Dojo人工智能培訓(xùn)系統(tǒng)的基礎(chǔ),Dojo領(lǐng)導(dǎo)人Ganesh Venkataramanan說,該處理器的面積為645平方毫米,有500億個晶體管。Graphcore的Colossus Mk2為823平方毫米,590億個晶體管。
更大的Cerebras AI 芯片
Cerebras在芯片大小上處于另一個聯(lián)盟。
在普通處理器被從一個300毫米的晶圓上切割成十多個或上百個的地方,Cerebras保留了完整的晶圓,從而制造出一個單獨的WSE-2 AI加速處理器。芯片制造設(shè)備每次只能在晶圓上一個相對較小的矩形區(qū)域上蝕刻晶體管電路。但Cerebras設(shè)計了每一個矩形晶片元件,這樣它們就可以在晶片上互相交流。
其他人工智能芯片公司也將它們的芯片連接在一起——特斯拉的Dojo將3000塊D1芯片組合成一個名為Exapod的單元。但Cerebras的芯片將集成更進一步。
人工智能芯片的挑戰(zhàn)
制造人工智能加速芯片并不容易。英特爾放棄了其首款人工智能芯片Nervana,創(chuàng)業(yè)公司W(wǎng)ave Computing在2020年申請了破產(chǎn)保護,今年開始嘗試更普通的芯片許可業(yè)務(wù)。
而用于訓(xùn)練人工智能系統(tǒng)的現(xiàn)有技術(shù)高端圖形芯片依然強大。例如,特斯拉目前的人工智能培訓(xùn)系統(tǒng)使用的是英偉達(dá)的圖形芯片。英偉達(dá)電腦架構(gòu)師Ritika Borkar在推特上表示,圖形芯片的靈活性有助于公司應(yīng)對人工智能領(lǐng)域更短的周期,該領(lǐng)域的技術(shù)大約每18個月就會發(fā)生變化。