英特爾在MLPerf v6.0中強調可擴展的AI推斷
英特爾發布了最新基準測試成績,展現了其在 CPU 與 GPU 平臺上的最新人工智能推理能力。該結果作為 MLCommons 組織MLPerf Inference v6.0測試套件的一部分正式公布,凸顯了英特爾至強 6 處理器搭配英特爾銳炫 Pro B 系列 GPU,在工作站、數據中心與邊緣端部署場景下的性能表現。對于關注 AI 硬件平臺演進的工程師與開發者而言,這些結果清晰展現了英特爾在當前由專有 GPU 生態主導的市場中,如何布局開放、可擴展的推理系統。
基準測試凸顯銳炫 Pro GPU 擴展能力
MLPerf Inference v6.0 測試結果包含英特爾 GPU 平臺的四項核心基準測試,平臺均采用至強 6 CPU 搭配銳炫 Pro B70 顯卡。英特爾表示,搭載4 塊銳炫 Pro B70/B65 GPU的系統可提供 128GB 顯存,能夠高并發運行最高1200 億參數的大型 AI 模型。
英特爾稱,銳炫 Pro B70 GPU 的推理性能較上一代銳炫 Pro B601最高提升 1.8 倍。
英特爾還強調了軟件優化帶來的性能提升。借助開放、容器化的軟件棧,推理性能可從單節點系統擴展至企業級多 GPU 部署。在相同的銳炫 Pro B60 硬件上,相比 MLPerf v5.12 版本,性能最高提升 1.18 倍。
英特爾數據中心集團 AI 產品與全球上市副總裁阿尼爾?南杜里表示:“英特爾至強 6 與銳炫 Pro B 系列 GPU 的組合,體現了我們為拓展客戶選擇與價值所做的投入,提供面向大語言模型與傳統機器學習工作負載的實用解決方案,為全球圖形專業人士與 AI 開發者帶來領先性能與卓越價值。”
面向 AI 工作站與邊緣端部署
搭載銳炫 Pro B70/B65 GPU 的英特爾系統被設計為軟硬一體驗證的集成式推理平臺。該平臺通過基于 Linux 的容器化環境、多 GPU 擴展與 PCIe 點對點數據傳輸,簡化 AI 部署流程。
此類 GPU 還集成了企業級特性,包括ECC 內存、SR-IOV 虛擬化支持、運行狀態監控與遠程固件更新。
內存容量是運行大語言模型的關鍵因素。英特爾表示,在多 GPU 配置下,銳炫 Pro B70 可支持更大規模模型與更長上下文窗口。相比同級別競品 GPU,運行大模型時 B70 的鍵值緩存容量最高提升 1.6 倍。
至強 CPU 仍是推理系統核心
盡管 GPU 常被視為 AI 加速焦點,但英特爾著重強調了 CPU 在推理基礎設施中的核心作用。主 CPU 負責內存管理、任務調度與集群整體效率,這些因素直接關系到系統的成本與性能。
英特爾是目前唯一一家單獨提交 CPU 推理成績的服務器處理器廠商。MLPerf Inference v6.0 中超過半數的提交項采用至強處理器作為主 CPU。
英特爾還指出其 CPU 路線圖的代際性能提升。搭載性能核(P-core)的至強 6 處理器,在 MLPerf Inference v5.1 中較上一代性能最高提升 1.9 倍。內置 AMX、AVX-512 等 AI 加速技術,可讓大語言模型推理、微調及傳統機器學習等工作負載,在無專用加速硬件的情況下仍高效運行。
隨著 AI 推理在邊緣設備、工作站與數據中心的需求持續增長,廠商愈發聚焦融合 CPU、GPU 與優化軟件棧的可擴展架構。英特爾最新 MLPerf 成績,體現了其通過開放平臺與系統級性能參與競爭,而非依賴專有 AI 基礎設施的戰略。











評論