男欢女爱销魂蚀骨免费阅读,性欧美丰满熟妇XXXX性久久久,适合单身男人看的影片,www天堂无人区在线观看,悟空影视免费高清

每日經濟新聞
要聞

每經網首頁 > 要聞 > 正文

做空英偉達的又一理由?螞蟻集團發布最新AI成果:無需高端GPU,計算成本降低20%,訓練1萬億Token只需508萬元

每日經濟新聞 2025-03-25 18:39:09

3月(yue)24日,螞蟻集團(tuan)Ling團(tuan)隊(dui)發布兩款百靈(ling)系(xi)列開源混合專(zhuan)家模型Ling-Lite和Ling-Plus。該團(tuan)隊(dui)在模型預(yu)訓(xun)(xun)練(lian)階段(duan)使用(yong)(yong)較低(di)規格硬件系(xi)統,將(jiang)計算成本降低(di)約(yue)20%,并取得(de)與使用(yong)(yong)高性(xing)能芯片(pian)模型相(xiang)當的效果(guo)。螞蟻集團(tuan)有關人士告訴每(mei)經(jing)記者,訓(xun)(xun)練(lian)過程中既(ji)使用(yong)(yong)了國產(chan)芯片(pian),也(ye)使用(yong)(yong)了英偉達芯片(pian)。

每經(jing)記(ji)者|宋欣悅    每經(jing)編輯(ji)|蘭(lan)素英(ying)    

長久(jiu)以來,英(ying)偉達憑借高性能芯片構筑起“算力霸(ba)權(quan)”,在(zai)AI模(mo)型訓(xun)練領(ling)域占據(ju)主(zhu)導地位(wei)。這(zhe)一局(ju)面在(zai)DeepSeek問世(shi)后遭遇到(dao)不(bu)小的沖擊,如(ru)今又(you)面臨著(zhu)新(xin)的挑戰。

3月初,由螞蟻集(ji)團首席技(ji)術官何征宇(yu)帶(dai)領的Ling團隊(dui)發表了一(yi)篇(pian)技(ji)術成果論(lun)文。

論文顯示,該團隊開發(fa)了兩款百靈系列開源(yuan)混合專家(MoE)模型Ling-Lite(總(zong)參(can)(can)數為16.8B)和Ling-Plus(總(zong)參(can)(can)數為290B)。相比之下,據《麻省理工科技評論》,GPT-4.5總(zong)參(can)(can)數為1.8T,DeepSeek-R1總(zong)參(can)(can)數為671B。

而驚艷之處在于,Ling團隊在模型預訓練階段使用較低規格的硬件系統,將計算成本降低約20%,訓練1萬億Token成本從635萬元降至508萬元,最終取得了與使用高性能芯片(如英偉達H100、H800等)的模型相當的效果。

螞蟻集團有(you)關人士告訴《每日經濟新聞》記者,在模型(xing)訓練過程中,他們(men)既(ji)使用了國產(chan)芯片,也采用了英偉達芯片。

但百靈系(xi)列混合專家模型的橫(heng)空出世,讓(rang)市場再次(ci)質(zhi)疑英偉達的“算力信(xin)仰”。HuggingFace工程師(shi)Tiezhen Wang在(zai)社交媒(mei)體上(shang)表示(shi),“做空英偉達的又一(yi)理(li)由?”

Tom's Hardware發表評論稱,螞蟻集團此次的技術突破清晰展(zhan)現出中國(guo)正堅定地朝著技術獨(du)立(li)方向邁進。

針對此事,3月24日螞蟻集團(tuan)回應媒體(ti)稱,螞蟻針對不同芯片持續調(diao)優,以降低(di)AI應用成本,目前取得了一定的進展,也(ye)會逐步(bu)通過開源分享。

圖片來(lai)源:螞蟻集團Ling團隊(dui)最新(xin)論文

螞蟻重大突破:不使用高端GPU的情況下將計算成本降低20%

目前,螞蟻(yi)集團(tuan)Ling團(tuan)隊(dui)的技術(shu)成果論(lun)文(wen)《每一個FLOP都至(zhi)關(guan)重要(yao):無(wu)需高級GPU即可擴展3000億參(can)數混合專家LING大模型》已發(fa)表(biao)在預印(yin)本(ben)平臺arXiv上。

螞蟻Ling團隊認為(wei),正如(ru)DeepSeek開(kai)源發布中分析(xi)的“晝夜(ye)推理負(fu)載不均”問(wen)題(ti),在推理服務高峰(feng)期(qi),高性能資源同(tong)樣面(mian)臨短缺。在長期(qi)科研實踐中,許多機構都持續面(mian)臨著(zhu)高端AI加速卡供應(ying)不足(zu)的問(wen)題(ti)。相比之下,性能較低的加速器更易獲得,且單價更低。因此(ci),模型需要能(neng)在(zai)異構(gou)計算單元和分布式集群間切(qie)換的(de)(de)技(ji)術框(kuang)架,同(tong)時在(zai)AI Infra部分,在(zai)跨集群、跨設備的(de)(de)兼容和可靠層(ceng)面進(jin)行性能(neng)優化。

該團隊的實驗結果表明,參數規(gui)模為300B左右的混合(he)專(zhuan)家模型可以在性(xing)能(neng)較低的設備上(shang)有效訓練,并在性(xing)能(neng)上(shang)達(da)到與同規(gui)模的其他模型相當的水平(ping)。

以Ling-Plus模型為例,在實驗中,該模型在五種不同硬件配置下完成9萬億Token的預訓練任務。經測算,使用高性能硬件設備訓練1萬億Token,預計成本高達635萬元人民幣,而使用低規格硬件系統,成本則可控制在約508萬元,節省近20%。

圖片來(lai)源:螞蟻集團Ling團隊最(zui)新(xin)論文

在英語理解能力上,Ling-Lite模(mo)型在一項關(guan)鍵基準測試中的(de)表(biao)現與Qwen2.5-7B相當,優于Llama3.1-8B和Mistral-7B-v0.3。

在中文理解能力上,Ling-Lite和Ling-Plus模型表(biao)現明顯優(you)于(yu)(yu)海外(wai)模型Llama3.1-8B和Mistral-7B-v0.3。在部(bu)分基準測試中,Ling-Plus表(biao)現略優(you)于(yu)(yu)DeepSeek-V2.5,與Qwen2.5-7B相當(dang)。

在數學和代碼基準測試方面,Ling-Lite的表現與Qwen2.5-7B-Instruct相當,優于(yu)Llama3.1-8B和Mistral-7B-v0.3。Ling-Plus的表現優于(yu)DeepSeek-V2.5,接近(jin)Qwen2.5-72B的水平(ping)。

圖片來源:螞蟻集團(tuan)Ling團(tuan)隊最(zui)新論文(wen)

在工(gong)具使用(yong)方面(mian),大多數(shu)情況(kuang)下,Ling-Plus和Ling-Lite在基準測試中均取得了最佳(jia)成績(ji)。而工(gong)具使用(yong)對于大語(yu)言模(mo)型來說是(shi)一項重(zhong)要且具有挑戰性的任務。工(gong)具使用(yong)能力使模(mo)型能夠作(zuo)為AI代理工(gong)作(zuo)、控制機器人系統并與眾多軟件工(gong)具集(ji)成。

此(ci)外,在安全(quan)性方面(mian),Ling-Plus和Qwen2.5-7B表現突出,而Ling-Plus在錯誤(wu)拒絕方面(mian)表現更佳。

提高大模型的無害性(harmlessness)通常會導致其有用性(helpfulness)的降低。測試結果表明,Ling-Plus在安全性和錯誤拒絕之間整體平衡性上表現最佳

據悉,螞(ma)蟻百靈大模型(xing)Ling-Plus和Ling-Lite將(jiang)計劃開(kai)源,并應用于醫療、金融等(deng)行業領域。

打破英偉達“算力霸權”?

有分析(xi)稱,百(bai)靈系(xi)列混合專家(jia)模(mo)型的推出(chu)標(biao)志著螞蟻集團加入(ru)(ru)AI領域(yu)的競(jing)賽。自DeepSeek展示出(chu)能夠(gou)以遠低于OpenAI和谷歌投入(ru)(ru)的數十億(yi)美元成本訓練出(chu)強(qiang)大模(mo)型以來,這一(yi)競(jing)爭加速升(sheng)級。 

此前,DeepSeek在(zai)技(ji)術論文(wen)中表示,DeepSeek-V3模(mo)型(總參數671B,激活參數37B)總訓練成(cheng)本(ben)為(wei)557.6萬(wan)美(mei)元,完整訓練消耗了278.8萬(wan)個GPU小時,幾乎是同等(deng)性能水平模(mo)型訓練所(suo)需的(de)十分之一,堪(kan)稱“榨干”GPU,也因此引發了資(zi)本(ben)市場的(de)恐慌(huang)。

對(dui)此,英偉達CEO黃仁勛在公開場合(he)多次贊美(mei)DeepSeek,但其認為,DeepSeek-R1等(deng)更高效(xiao)的(de)模型出現,反而會刺激計算(suan)需求增(zeng)長。

然而,螞蟻集團正在探索一條新的路徑——在無高端GPU的情況下擴展模型訓練能力。 

百靈系列混合專家模(mo)型的橫空出世(shi),讓市場再次質疑英(ying)偉達的“算力(li)信仰”。HuggingFace工程師Tiezhen Wang在社交媒體上表示(shi),“做(zuo)空英(ying)偉達的又一(yi)理(li)由?”

圖片來源:X

著名硬件(jian)媒體(ti)Tom's Hardware指出,如(ru)果(guo)螞蟻集團此(ci)次(ci)技術(shu)(shu)突破意味著實現了(與(yu)DeepSeek)類似的AI訓練效率飛(fei)躍,這極有可(ke)能成為(wei)(中國)降(jiang)低對西方技術(shu)(shu)依(yi)賴進程中的又一(yi)重要(yao)里程碑。

螞蟻集團(tuan)有關人士告訴《每日(ri)經濟新聞》記(ji)者,在模型訓練(lian)過程中,他們既使用了國產芯(xin)片,也采用了英偉達芯(xin)片。 

Tom's Hardware發表評論稱,螞蟻集團此次技術突破清晰展現出中國正堅定地朝著技術獨立方向邁進

彭(peng)博資(zi)深商業(ye)智能分析師羅伯特·李(Robert Lea)同樣指出,螞蟻集團(tuan)的(de)(de)研(yan)究(jiu)展(zhan)示了中國在AI創新方面(mian)的(de)(de)快速進步,也顯示出本土(tu)企業(ye)正朝著AI自(zi)給自(zi)足的(de)(de)方向邁(mai)進。

如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新(xin)聞》報社授權,嚴(yan)禁轉載或鏡像,違者必究。

讀者熱(re)線:4008890008

特別提(ti)醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望(wang)作品(pin)(pin)出(chu)現在本站,可聯(lian)系我們(men)要求撤下您的作品(pin)(pin)。

英偉達 螞蟻集(ji)團 大模型 開源

歡迎關(guan)注每(mei)日(ri)經濟(ji)新聞APP

每經經濟新聞官方APP

0

0