2023年人工智能芯片展望
姊妹研究公司Omdia的數(shù)據(jù)中心IT首席分析師Manoj Sukumaran表示,隨著人工智能在各類企業(yè)、最終用戶、云服務(wù)提供商甚至電信服務(wù)提供商中的部署激增,對專業(yè)人工智能處理器的需求將在2023年繼續(xù)飆升。
“人工智能芯片市場預(yù)計將繼續(xù)保持過去幾年的增長勢頭,”他說。“其中一些深度學(xué)習(xí)模型的規(guī)模超過了數(shù)萬億個參數(shù),需要強大的計算能力來訓(xùn)練和部署這些模型。”
例如,Meta預(yù)計其深度學(xué)習(xí)推薦模型(DLRMs)在不久的將來將增長到超過10萬億個參數(shù),這需要zettaflop of compute來訓(xùn)練,數(shù)據(jù)中心IT的首席分析師Sukumaran說。
以下是蘇卡曼對2023年AI芯片市場的預(yù)期:
2023年出貨的大約200萬臺服務(wù)器將至少有一個協(xié)處理器來加速一些計算工作負載,與2022年相比增長了53%。其中很大一部分將是GPU、TPU和專門的人工智能加速器。
英偉達的H100“漏斗”張量核心GPU將于2023年商用。英特爾首款數(shù)據(jù)中心GPU,代號為韋基奧橋,預(yù)計也將在2023年上半年推出,而特斯拉的DOJO超級計算機及其定制的硅Dojo D1預(yù)計將在2023年底推出。
人工智能芯片市場面臨整合。在過去的幾年里,硅創(chuàng)業(yè)公司蓬勃發(fā)展,以迎合人工智能處理器市場,但2023年對其中一些公司來說將是艱難的一年,因為風(fēng)險投資資金枯竭,大多數(shù)公司還沒有主要的收入來源。
Omdia的云和數(shù)據(jù)中心研究業(yè)務(wù)負責(zé)人弗拉基米爾·加拉波夫(Vladimir Galabov)表示,隨著這些初創(chuàng)公司在2023年努力維持自身,它們可能會因此成為收購目標。
整合以前發(fā)生在市場上,當時英特爾取得他說,人工智能芯片制造商Habana Labs在2019年的價格約為20億美元,深度學(xué)習(xí)初創(chuàng)公司Nervana Systems在2016年的價格約為4億美元。
“不僅僅是芯片,利用芯片功能的強大軟件堆棧也是這個市場中公司的獨特之處。蘇卡曼說:“這正是許多初創(chuàng)公司正在努力解決的問題。“如果你看看市場上的領(lǐng)導(dǎo)者英偉達,它最大的優(yōu)勢是軟件。即使是他們最大的競爭對手英特爾和AMD也沒有強大的軟件體系。”
蘇卡曼說,話雖如此,利基市場還是會有贏家的。創(chuàng)業(yè)公司,比如腦波和桑巴諾瓦系統(tǒng)公司他說,微軟已經(jīng)找到了一個利基市場,并在人工智能市場上做了很好的定位。
Galabov說,2023年,數(shù)據(jù)中心運營商將越來越多地將特定的人工智能處理器與特定的工作負載需求相匹配,以最大限度地提高性能。
例如,在最近的AWS re:Invent大會上,亞馬遜網(wǎng)絡(luò)服務(wù)公司表示,它選擇了英特爾的Habana芯片用于視覺上的機器學(xué)習(xí)模型,因為它提供了更好的性能,但AWS將使用自己的Tranium芯片用于語言,因為它自己的芯片設(shè)計更好,他說。
加拉波夫說,在更廣的范圍內(nèi),摩爾定律仍然有效。
摩爾定律表明,集成電路中的晶體管數(shù)量每兩年翻一番,這意味著今天集成電路上需要大約1000億個晶體管。
2022年,蘋果推出了由1140億個晶體管組成的M1超。他說,AMD的第四代Epyc“Genoa”芯片擁有900億個晶體管,而英特爾即將推出的Ponte Vecchio芯片擁有超過1000億個晶體管。
“這三種產(chǎn)品讓我們遵循摩爾定律,”加拉波夫說。
加拉波夫補充說,摩爾定律可能會延續(xù)到2024年。
“如果我們今天設(shè)法建造一個具有1000億個晶體管的處理器,摩爾定律將表明,在2024年,我們必須達到2000億個晶體管。目前,我認為我們很可能會接近成功。但到了2026年,我們可能會很難跟上摩爾定律,”他說。