Meta推出自研AI芯片,專攻生成式AI推理任務
作為該系列芯片中最先進的型號,MTIA 500 在處理 MX8 格式數據時,性能可達 10 拍字節每秒(Petaflops),同時還支持效率更高的 MX4 數據格式。后者通過減少 AI 模型響應提示詞時需分析的字節數量,實現了處理速度的提升。MX 系列數據格式屬于微縮向量類型,MX4 格式以 3 位尾數共享 8 位指數的設計,在保證模型效果的前提下最大化壓縮數據量,是生成式 AI 推理的關鍵優化技術之一。
MTIA 500 采用四顆邏輯芯粒(Chiplet)執行計算任務,芯粒周圍環繞著多堆疊高帶寬內存(HBM),總存儲容量高達 516 吉字節(GB),是前代產品 MTIA 300 的兩倍。該處理器的核心組件還包括一顆系統級芯片(SoC)芯粒,負責與主機服務器進行信息傳輸,實現數據的雙向流轉。
MTIA 500 預計將于 2027 年投產,同期推出的還有性能稍低的同系列芯片 MTIA 450。這兩款處理器均針對生成式 AI 推理工作負載進行了專項優化,內置專用電路以加速推理流程中硬件密集型的關鍵環節,例如閃存注意力機制(FlashAttention)—— 這是大型語言模型(LLM)分析輸入數據時采用的主流注意力機制實現方案,通過分塊計算、算子融合等創新設計,將傳統注意力機制的內存復雜度從 O (N2) 降低至 O (N),大幅提升長文本處理效率。
Meta 工程師表示:“在系統層面,MTIA 400、450 和 500 共享相同的機架、機柜和網絡基礎設施。因此,新一代芯片可直接適配現有物理部署環境,加速從芯片研發到量產部署的轉化進程。我們采用的模塊化、可復用設計,還能最大限度減少多代芯片研發與部署所需的資源投入?!?這種統一架構設計讓 Meta 的數據中心無需大規模改造,即可實現芯片的無縫升級,降低了技術迭代的成本與風險。
為充分發揮 MTIA 芯片的性能潛力,Meta 開發了定制化編譯器,用于對 AI 模型進行針對性優化。另一款定制軟件模塊 ——“Hoot” 集體通信庫(Hoot Collective Communications Library),則負責管理處理器間的數據流轉。該庫采用近內存計算架構,利用內存單元附近的晶體管執行特定計算任務,縮短了數據傳輸距離,進而提升了整體性能。這一設計貼合 AI 計算 “數據搬運耗時占比高” 的痛點,通過硬件與軟件的協同優化,進一步釋放算力。
值得關注的是,此次自研芯片發布距 Meta 與英偉達達成數十億美元的處理器采購協議尚不足一個月。Meta 此舉旨在構建 “商用 GPU + 自研芯片” 的混合算力架構,既滿足自身快速增長的 AI 計算需求,又降低對單一供應商的依賴,形成多元化的供應鏈布局。








評論