久久ER99热精品一区二区-久久精品99国产精品日本-久久精品免费一区二区三区-久久综合九色综合欧美狠狠

新聞中心

EEPW首頁 > 智能計算 > 市場分析 > GPU進基站?AI-RAN的真爭議

GPU進基站?AI-RAN的真爭議

作者: 時間:2026-03-10 來源:半導體產業縱橫 收藏

過去一年,如果你關注通信行業的新聞,大概很難躲過「」這個詞。英偉達和軟銀牽頭成立的 聯盟,T-Mobile 西雅圖的實驗室測試,Indosat 在印尼完成的 AI 通話演示——一連串的動態似乎在傳遞一個信號: 即將大規模進入基站,AI 正在從「網絡上層」下沉到「無線底層」。

但如果你有機會和運營商的朋友聊一聊,會發現他們的態度遠沒有發布會舞臺上那么激動。興奮是有的,但更多的是審慎、觀望,甚至是一絲不易察覺的疑慮:基站里真的需要塞進一塊 嗎?這筆賬到底怎么算? 究竟是一場技術革命,還是又一輪由芯片廠商主導的「競賽」?

基站里的「聰明」與「不聰明」

要理解 AI-RAN 到底想做什么,得先回到無線接入網這個老問題上。

通信行業一直有一個心照不宣的事實:在整個移動網絡里,無線接入網(RAN)是最「不聰明」的那一段。核心網早就虛擬化、云化了,各種開源平臺和通用服務器跑得風生水起。但走到基站這一層,情況完全不同——專用芯片、封閉接口、定制化硬件,像一個黑盒子,外面的人進不去,里面的數據出不來。

這聽起來像個技術問題,但歸根結底是個經濟問題。基站部署量太大了,一個中等規模的運營商可能擁有幾十萬個站點。在這個量級上,任何一點成本波動都會被放大到驚人的數字。專用芯片雖然不夠靈活,但它的功耗、成本、穩定性經過了幾十年的極致優化,是運營商能夠接受的「最優解」。

但問題也隨之而來。當 AI 開始滲透到網絡的每一個角落,當運營商希望通過智能化來優化覆蓋、提升容量、降低能耗時,RAN 成了那個最難下手的環節。你可以在核心網里隨便部署 AI 服務器,可以給運維中心配上一堆 來做網絡優化,但走到基站門口,路就斷了。

AI-RAN 的野心,就是想打通這最后一公里。但需要厘清的是,AI 與 RAN 的關系其實是雙向的。業界通常用兩個詞來定義這種關系:一個是「AI for RAN」,即用 AI 來優化無線接入網的性能——信道估計、波束管理、負載均衡,這些都是 AI 賦能網絡的典型場景;另一個是「RAN for AI」,即把基站本身變成 AI 算力的提供者,讓遍布各地的站點成為分布式推理的基礎設施。英偉達的邏輯很簡單:與其讓 AI 在基站外面轉悠,不如直接把它請進去,讓基站自己變聰明。


聽起來很美好。但基站真的需要那么聰明嗎?

GPU 進基站,誰在買單

這就要算一筆賬了。

先看成本。一塊適合基站的 GPU,價格不是小數。功耗也不是小數。如果要在幾十萬個基站里全部部署,那將是一筆天文數字的資本開支。而運營商現在的日子并不好過,流量增長但收入不增,是過去十年全球電信行業的普遍困境。在這種背景下,讓運營商掏錢給每個基站升級 GPU,難度可想而知。

三星電子美國公司網絡事業部戰略與營銷副總裁 Alok Shah 表示:「業界正在謹慎評估與在基站中引入 GPU 相關的總擁有成本模型和商業案例。迄今為止,在站點層面全面轉向 GPU 計算在資本支出和運營成本上都面臨挑戰,但該領域的創新很活躍。我們可能會發現,在未來幾年內,會有一部分站點的部署在經濟賬上是可行的?!箵Q句話說,賬還沒算清楚,誰也不敢輕易拍板。

再看必要性。基站真的需要 GPU 嗎?還是說,現有的 CPU 已經夠用了?這其實是一個被忽略的問題。新一代的 x86 CPU,性能早已不可同日而語。很多 AI 推理任務,尤其是輕量級的、對時延要求不高的任務,CPU 完全能應付。如果 CPU 能解決,為什么要多花一筆錢去買 GPU?

一位國內運營商的專家說得更直白:如果說算力一定要放到基站里,而且一定要放 GPU,我打個問號。成本太高,運營商根本接受不了。而且,把算力鎖定在基站里,反而限制了對算力的靈活調度——邊緣節點、匯聚機房、中心云,算力應該是一個可以動態調配的資源池,而不是固化在每一個站點。但也有不同觀點認為,按演示數據推算,單站閑置算力若按云計算市場價的 70% 出租,五年內就能收回 30% 的基站建設成本。

這些話背后,折射出一個更本質的分歧:AI-RAN 究竟應該怎么部署,是「全量升級」還是「按需引入」?英偉達作為芯片廠商,當然希望 GPU 鋪得越廣越好。但運營商要考慮的是,到底哪些場景真正需要基站級別的 AI 能力。

哪些場景「非 AI 不可」

如果說 5G 時代,AI 還算是個「加分項」,那么到了 6G,情況可能會發生變化。通信行業普遍認為,6G 網絡將面臨一個根本性的挑戰:網絡的復雜程度將達到「超越人類規?!沟拈撝?,人腦已經無法實時管理。屆時,AI 不再是可選項,而是必選項。

這不是危言聳聽。5G 時代,基站已經有了大規模 MIMO 天線,波束賦形的參數配置已經復雜到需要算法輔助。到了 6G,頻段更高、天線更多、業務更雜,靠人工腳本和預設策略去管理,幾乎不可能。換句話說,未來的網絡必須是「自智」的——自己感知、自己決策、自己優化。

這就把問題倒過來了:不是「基站里為什么要放 AI」,而是「不放 AI 的基站還能不能跑得動」。

具體到場景,有幾個方向已經比較清晰。

一個是信道估計。無線信號在空中傳播,受到干擾、衰落、遮擋的影響,基站需要實時估計信道狀態,才能決定用什么樣的參數發送數據。傳統算法有局限,而 AI 可以通過學習歷史數據,更準確地預測信道變化。富士通旗下的一個團隊給出的數據是:用 AI 改善信道估計,可以把上行鏈路性能提升 20%,某些場景下甚至能達到 50%。

另一個是波束管理。大規模 MIMO 基站可以生成多個窄波束,覆蓋不同方向的用戶。但用戶是移動的,波束需要跟著人走。如果波束切換不及時,就會掉線。AI 可以預測用戶的移動軌跡,提前把波束切過去,讓用戶的體驗更流暢。

還有頻譜共享。傳統做法是,如果某個頻段受到干擾,系統干脆把整個頻段關掉。但 AI 可以做得更精細——識別出干擾源,只屏蔽受影響的頻率,其他部分照常使用。MITRE 在 2025 年展示的一個應用,做的就是這件事。

這些場景的共同點是:需要實時響應、需要本地決策、無法把所有數據都傳回中心處理。這正是基站級 AI 的意義所在。

基站「夜間兼職」

如果說「AI for RAN」是為了讓網絡跑得更順,那么「RAN for AI」則是在探索另一種可能性:基站能不能不只是花錢的基礎設施,還能成為賺錢的資產?

軟銀和諾基亞最近做了一個很有意思的試驗。他們在日本搭建了一套基于英偉達 GPU 的 AI-RAN 平臺,白天,基站的算力優先保障 5G 通信——處理用戶的語音、視頻、數據請求;到了夜間,當網絡流量大幅下降,這些原本閑置的 GPU 算力并沒有空轉,而是通過軟銀的 AITRAS 編排器自動切換成「算力供應商」模式,為第三方客戶運行 AI 推理任務。

換句話說,同一個基站,白天是通信基站,晚上變成了邊緣 AI 服務器。諾基亞首席技術兼 AI 官 Pallavi Mahajan 對此評價:「隨著全球 AI 處理需求加速增長,這個項目展示了如何利用分布式網絡資源來提供可擴展、高效且可持續的 AI 服務?!?/span>

軟銀先進技術研究所副總裁 Ryuji Wakikawa 則說得更直接:「在 AI-RAN 中,最大化計算資源的價值非常重要。我們增強了 AITRAS 編排器,使其能夠將資源分配給外部 AI 工作負載,從而將這些資源作為新的收入來源加以利用?!?/span>

這種「基站夜間兼職」的模式,觸及了一個更深層的變革:基站正在從單純的「成本中心」向可能的「利潤中心」演進。當然,這還只是試驗??蛻舢嬒襁€不清晰——是賣給互聯網公司做邊緣推理?還是給工業企業做機器視覺?商業模式還在探索中。但它至少打開了一個想象空間:如果全城的基站都能在夜間貢獻算力,那將是一張多么龐大的分布式計算網絡。

兩條腿走路:GPU 與 CPU 的長期共存

回到最初的問題:基站里到底需不需要 GPU?

最可能的答案是:部分需要,部分不需要。就像今天的網絡設備,有的用專用芯片,有的用通用 CPU,有的用 FPGA,各取所需。未來的基站也不會是單一形態,而是根據場景和成本,靈活選擇計算架構。

對于城市熱點、高流量區域,基站可能確實需要 GPU 來支撐復雜的 AI 任務;對于偏遠地區、低負載站點,CPU 就夠用了,沒必要多花錢。還有一種可能是,GPU 不是部署在每一個基站,而是部署在邊緣節點,覆蓋一片區域內的多個基站,兼顧算力供給和成本控制。

英偉達自己也意識到了這一點。它的 AI Aerial 平臺,核心賣點之一就是「資源共享」——同一塊 GPU,可以動態分配給 RAN 任務和 AI 任務,忙時做通信,閑時做推理,提高利用率,攤薄成本。這其實是在回應運營商的成本顧慮:你可以不用為 AI 專門買一塊 GPU,它可以和 RAN 共用一塊。

軟銀在日本做的試驗,就是這個思路。他們用一套系統同時跑 5G 和第三方 AI 應用,證明了兩者可以共存,且互不干擾。對于運營商來說,這提供了一種新的可能性:基站不再只是成本中心,還可以變成算力服務的輸出節點,創造新的收入來源。

當然,這還只是試驗。從試驗到規模化商用,還有很長的路。標準怎么定、接口怎么統一、業務模式怎么設計,都是待解的難題。業內人士的回答是:「客戶畫像還不清晰,是賣給互聯網公司做邊緣推理?還是給工業企業做機器視覺?商業模式還在探索中?!?/span>

結語

站在 2026 年回望,AI-RAN 的討論已經從「要不要做」轉向了「怎么做」。英偉達用兩年時間,把一個概念做成了一個產業聯盟,從 T-Mobile 到軟銀,從諾基亞到思科,越來越多的大玩家加入其中。這本身就說明,方向是對的。

但「方向對」不等于「落地快」。電信行業有其自身的節奏,幾億用戶的網絡不能隨便折騰,穩定可靠永遠是第一位的?!窤I-RAN 架構能否實現規?;逃?,關鍵取決于其性能表現、成本控制與運行穩定性。今年 MWC 上的各類演示顯示,相關技術基礎正持續成熟,云計算、人工智能與通信基礎設施的融合,已從概念構想逐步進入可控驗證落地階段。」

「AI 進基站,不會是顛覆式的推倒重來,而是漸進式的滲透融合。」這個過程可能需要五年、十年,但一旦完成,網絡將不再是今天的網絡。

到那時,基站不僅是收發信號的鐵塔,還是感知世界的節點;網絡不僅是傳輸數據的管道,還是承載智能的基礎設施。而這一切的起點,正是今天這些充滿爭議、有待驗證的試驗和討論。


關鍵詞: GPU AI-RAN

評論


相關推薦

技術專區

關閉