以下文章來源于EETOP ,作者Nancy Zhou
近日,馬斯克透露,他的人工智能初創公司xAI正計劃建造一臺超級計算機,并希望在 2025年秋季之前讓擬議的超級計算機運行,為其下一版本的人工智能聊天機器人Grok提供算力。
其實,早在今年3月,xAI就發布了其最新版的Grok 1.5。不過,4月,馬斯克宣布,由于沒有足夠多的先進芯片,故推遲了Grok 2模型的訓練和發布。他表示,訓練Grok2模型需要大約2萬塊英偉達H100,而Grok3模型及更高版本將需要10萬塊英偉達H100。完成后,其連接的芯片組將至少是當今最大GPU集群的4倍。
確實,生成式AI從云端走向終端,芯片已經成為推進大模型發展的關鍵。大模型企業也已經開始將目光聚焦到芯片公司,期待從底層展開合作,以解決算力成本在端側的覆蓋問題。基于算力需求,芯片廠商與大模型廠商走得更近了。
在泰克最新對清華大學教授高濱的采訪中,他表示:“自2023年開始,大模型就非常火。國際上、以及幾個大公司都在研究怎么去支持大模型。從新的器件到新的工藝,這幾個公司的技術路線都不太一樣。有的相對傳統一些,有的嘗試用新工藝新器件去做。在去年的IEDM大會中,還專門設置了一個探討大模型的section。”
高濱老師特別強調說:“大模型不僅僅是算法和應用上,其實底層的算力支撐也是非常重要。”
大模型與存算一體技術
當前,各行各業都在數字化轉型,數據處理和存儲的需求與日俱增。傳統的計算與存儲的模式已經很難滿足當下高性能、低能耗、強安全的需求。存算一體技術被認為是可以有效解決傳統馮·諾依曼架構下的“存儲墻”和“功耗墻”問題的有效途徑。
存算一體的優勢是打破存儲墻,消除不必要的數據搬移延遲和功耗,并使用存儲單元提升算力,成百上千倍的提高計算效率,降低成本。除了用于AI計算外,存算技術也可用于存算一體芯片和類腦芯片,代表了未來主流的大數據計算芯片架構。
高濱老師表示,大模型對功耗及成本的要求很高。如果憶阻器真的能應用到大模型里面的話,能效比預計將會有數量級的提升。現在大模型基本都是在云端,未來在端側,功耗將會是一個非常大的挑戰。憶阻器這種高能效的優勢在端側就會有很多的優勢。
高濱老師分享了近兩三年的研究重點,主要是希望把存算一體的技術往應用上去牽引,具體在開展的工作包括以下三大方面:
與企業合作。嘗試在實際邊緣智能的場景中做芯片設計,以及實際場景下的可靠性。高濱老師特別指出:“我們發現,在很多實際場景下,芯片電阻狀態的保持其實是存在隨機偏移的relaxation效應的,如何抑制隨機偏移,以滿足未來的應用需求,這是當前非常重要的課題。”
大模型的應用研究,主要是致力于提高密度。傳統的小的卷積網絡加速是不需要高密度的,但大模型需要。希望把密度盡可能的做高。以前做小的卷積網絡的加速,其實不需要這么高的密度。但是大模型需要。這其實主要是工藝方面的研究。
類腦學習。這是更前沿更創新的領域,除了去年十月在Science上發表的新近研究成果之外,其實清華大學還在布局新型類腦計算,它更看重整體算法效果,而非器件個體,最后是落實到器件上去做優化,調節器件中的電子離子的輸運。
后摩爾時代,從系統層面進行頂層規劃,根據系統需求優化器件,并做好器件與系統的協同設計,這點這尤為重要。就此,高濱老師特別分享了后摩爾時代,系統和器件的全新范式的研究模式。
系統和器件的全新范式的研究模式
摩爾定律的黃金時代,主要是將晶體管、電阻、電容和電感等元器件集成在一起,并形成具有預期功能的電路。這個時期,不太需要在意系統和器件的協同,只要器件做的足夠小,芯片的性能大體就能得到保證。
但是,后摩爾時代,應用場景的需求正向著高密度、小型化、強功能、低功耗、低成本、高可靠、易設計等方向發展,已經不僅僅是簡單的電路設計,而是要做系統化的集成。很多時候,需要把系統和器件做一個協同的設計,根據系統的需求去優化器件,很典型的就是存算一體,最終目的是要做人工智能的加速。