日本最強(qiáng)AI被曝套殼DeepSeek
3月17日,日本互聯(lián)網(wǎng)巨頭樂天集團(tuán)發(fā)布大模型Rakuten AI 3.0,并將其定義為在日本經(jīng)濟(jì)產(chǎn)業(yè)省與新能源產(chǎn)業(yè)技術(shù)綜合開發(fā)機(jī)構(gòu)(NEDO)推動(dòng)的GENIAC項(xiàng)目框架下開發(fā)的“日本國內(nèi)最大規(guī)模高性能AI模型”。
然后發(fā)布當(dāng)天,這款日本最強(qiáng)大模型就“翻車”了。截至目前,樂天集團(tuán)沒有任何公開回應(yīng)。

根據(jù)樂天的官方新聞稿,Rakuten AI 3.0是"基于開源社區(qū)最優(yōu)秀的模型,結(jié)合樂天獨(dú)自的高品質(zhì)雙語數(shù)據(jù)、技術(shù)力和研究成果開發(fā)"的,對Deepseek只字未提。不過,模型上線后不久,技術(shù)社區(qū)很快發(fā)現(xiàn)Rakuten AI 3.0的底層配置與DeepSeek-V3高度一致。
中國一開源,日本就自研
樂天稱,該模型約為7000億參數(shù)的MoE架構(gòu),作為一款日語特化模型在多項(xiàng)日語基準(zhǔn)超越GPT-4o,并以Apache 2.0許可在Hugging Face上免費(fèi)開放。
樂天在Hugging Face發(fā)布的config.json文件中,architectures一欄寫的是DeepseekV3ForCausalLM,model_type則直接標(biāo)注為deepseek_v3;而DeepSeek-V3官方倉庫的對應(yīng)字段也是同樣寫法。

該模型權(quán)重上傳到Hugging Face之后,任何人點(diǎn)進(jìn)去,切到Files and versions標(biāo)簽頁,打開config.json就能看到。用戶發(fā)現(xiàn)模型的config.json文件中包含"model_type": "deepseek_v3"這樣的條目。architectures寫著DeepseekV3ForCausalLM,不是參考、不是借鑒,而是直接聲明了模型類別。
而繼續(xù)看模型信息就可以發(fā)現(xiàn),hidden_size是7168,intermediate_size是18432,num_hidden_layers是61,n_routed_experts是256,vocab_size是129280。和DeepSeek V3的原版配置一模一樣。
雙方公開信息中的關(guān)鍵規(guī)格也幾乎完全重合:Rakuten AI 3.0在模型頁中寫明,總參數(shù)量671B、每個(gè)token激活參數(shù)37B;DeepSeek-V3官方倉庫對外公開的核心規(guī)格同樣是671B總參數(shù)、37B激活參數(shù)。所以樂天號稱參數(shù)量約7000億,因?yàn)镈eepSeek-V3的參數(shù)量就是6710億,四舍五入約等于7000億,這個(gè)“約”字用得精髓。
這意味著,Rakuten AI 3.0并非外界通常理解的“從零打造的全新底座模型”,而更像是在DeepSeek-V3基礎(chǔ)上,進(jìn)一步做了日語方向的訓(xùn)練和優(yōu)化。另一個(gè)引發(fā)討論的點(diǎn)是開源許可處理。DeepSeek-V3的公開倉庫顯示,其代碼文件采用MIT License,其中明確要求保留版權(quán)聲明和許可聲明。

而更為離譜的是,樂天一開始就沒有放入DeepSeek的MIT許可證文件,被指出之后,才默默以NOTICE為文件名補(bǔ)了上去,提交說明寫的是“Add the permission notice”,里面的版權(quán)聲明:Copyright (c) 2023 DeepSeek。
整體來看,Rakuten AI 3.0更準(zhǔn)確的定位,或許不是“日本從零做出的7000億參數(shù)原創(chuàng)底座”,而是一個(gè)建立在DeepSeek-V3開源技術(shù)之上、面向日語做深度優(yōu)化的超大模型版本。
翻車不是因?yàn)槌?/strong>
從開源規(guī)則看,基于開源模型進(jìn)行再訓(xùn)練、微調(diào)和本地化并不罕見,本身也不必然構(gòu)成問題。DeepSeek-V3是開源模型,許可證允許商業(yè)使用和二次開發(fā),在開源模型基礎(chǔ)上做微調(diào)是行業(yè)通行做法,嚴(yán)格來說,雖然樂天在所有對外宣傳中刻意回避了DeepSeek的名字,在法律上確實(shí)沒有違規(guī)。
真正引發(fā)爭議的,是樂天在宣傳口徑上更強(qiáng)調(diào)“日本最大、最強(qiáng)”,卻沒有在最醒目的位置清楚交代底座來源。而在許可文件補(bǔ)充出現(xiàn)在模型上線之后的背景下,這場發(fā)布會(huì)也從一場日本本土大模型成果展示,迅速演變成一場圍繞開源透明度與技術(shù)歸屬的輿論風(fēng)波。
樂天還特別強(qiáng)調(diào),這個(gè)模型是GENIAC第三期的成果,學(xué)習(xí)費(fèi)用部分由GENIAC提供的計(jì)算資源補(bǔ)助支持。GENIAC是經(jīng)濟(jì)產(chǎn)業(yè)省與新能源產(chǎn)業(yè)技術(shù)綜合開發(fā)機(jī)構(gòu)(NEDO)主導(dǎo)的項(xiàng)目,為日本的AI開發(fā)企業(yè)提供GPU利用方面的助力。說白了就是國家出錢、企業(yè)出力,目標(biāo)是建立日本的自主AI能力。
但樂天為何會(huì)翻車?對于一家拿到日本政府GENIAC項(xiàng)目支持、同時(shí)以“日本最大規(guī)模”進(jìn)行傳播的企業(yè)來說,這種表述被認(rèn)為過于模糊,容易讓外界誤以為其底座能力主要來自內(nèi)部原創(chuàng)研發(fā)。GENIAC項(xiàng)目的初衷是扶持日本自主AI能力,結(jié)果樂天拿到補(bǔ)助之后,下載了中國的開源模型,做了一層日語微調(diào),然后號稱"日本國內(nèi)最大規(guī)模的高性能AI模型"。
對此,有網(wǎng)友吐槽:DeepSeek現(xiàn)在都更新到V3.2了,樂天拿個(gè)舊版出來包裝,套殼都不挑個(gè)新的。值得注意的是,之前樂天發(fā)布RakutenAI-7B的時(shí)候,老老實(shí)實(shí)寫了"基于Mistral-7B開發(fā)"。這次突然改成"基于開源社區(qū)最優(yōu)秀的模型"這種含糊說法,明顯是故意的。













評論