男欢女爱销魂蚀骨免费阅读,性欧美丰满熟妇XXXX性久久久,适合单身男人看的影片,www天堂无人区在线观看,悟空影视免费高清

每日經濟新聞
要聞

每經網首頁 > 要聞 > 正文(wen)

OpenAI,大動作!

每日(ri)經濟新聞 2025-04-17 07:05:21

2025年(nian)4月(yue)17日凌晨(chen)1點,OpenAI發布最新模(mo)型(xing)GPT-4.1,及GPT 4.1-Mini和GPT 4.1-Nano兩(liang)款模(mo)型(xing)。GPT-4.1在多模(mo)態處理、代碼(ma)能力(li)(li)(li)、指令遵循、成本方面實現大(da)幅度提升,支(zhi)持(chi)100萬token上下文(wen),對(dui)金融分(fen)析(xi)、教育等(deng)領域(yu)幫助巨大(da)。目前,微軟Azure OpenAI已上線該模(mo)型(xing)。GPT-4.1系列價格更具競(jing)爭力(li)(li)(li),OpenAI正努(nu)力(li)(li)(li)在生成式人(ren)工智能領域(yu)保(bao)持(chi)領先地(di)位。

每(mei)經編輯|畢陸名(ming)

今天(17日)凌(ling)晨1點,OpenAI進行(xing)了技術直播發布(bu)了最新模型——GPT-4.1。

圖片來源:視頻截圖

除了GPT-4.1之外,還有GPT 4.1-Mini和GPT 4.1-Nano兩款模型,在多模態處理(li)、代(dai)碼能(neng)力、指(zhi)令(ling)遵循(xun)、成本方面實現大幅度(du)提升。特別(bie)是支持100萬token上下文,這對于金融分(fen)析、小說寫作、教育等領域幫助巨大。

圖片來源:OpenAI官網截圖

由于GPT-4.1的發(fa)布(bu)(bu),OpenAI宣布(bu)(bu)將(jiang)會(hui)淘汰剛發(fa)布(bu)(bu)不久的GPT-4.5,其能力可見一斑。

目前,如果(guo)想體驗(yan)GPT-4.1而無法(fa)通過API身份(fen)驗(yan)證(zheng)的小伙伴,微(wei)軟已經在(zai)Azure OpenAI上線了(le)該模型(xing),可以使用了(le)。

GPT-4.1有什么亮點?

GPT-4.1最大亮點之一就(jiu)是支持100萬tokens上下文,這也是OpenAI首次發布長窗口模型。

與前代模(mo)型相比,GPT-4.1、GPT-4.1 Mini和GPT-4.1 Nano能夠處理(li)多達100萬tokens的上下文(wen),是GPT-4o的8倍(bei)。

OpenAI在(zai)Long Context Evals上對長文本(ben)(ben)進行(xing)了(le)測試,測試結果顯示,GPT-4.1系列(lie)的(de)三個模型(xing)均能夠在(zai)語料庫(ku)的(de)任何(he)深(shen)度找到目標(biao)文本(ben)(ben),無(wu)論是(shi)開頭(tou)、中間(jian)還是(shi)結尾,甚至在(zai)長達100萬tokens的(de)上下文中,模型(xing)依(yi)然能夠準確地定位目標(biao)文本(ben)(ben)。

OpenAI還在(zai)Multi-Round Coreference進行了測試(shi),通過創(chuang)建合(he)成(cheng)(cheng)對(dui)(dui)話(hua)來測試(shi)模型在(zai)長(chang)上下(xia)文中(zhong)的理(li)解和(he)推理(li)能(neng)力。在(zai)這(zhe)些(xie)對(dui)(dui)話(hua)中(zhong),用戶(hu)和(he)助手交替進行對(dui)(dui)話(hua),用戶(hu)可能(neng)會(hui)要(yao)(yao)求(qiu)模型生成(cheng)(cheng)一首關(guan)于某(mou)個(ge)主題的詩,接著要(yao)(yao)求(qiu)生成(cheng)(cheng)另一首關(guan)于不同(tong)主題的詩,然后可能(neng)要(yao)(yao)求(qiu)生成(cheng)(cheng)一個(ge)關(guan)于第三個(ge)主題的短故事。模型需(xu)要(yao)(yao)在(zai)這(zhe)些(xie)復雜的對(dui)(dui)話(hua)中(zhong)找到特定的內容(rong),例如“第二篇關(guan)于某(mou)個(ge)主題的短故事”。

測(ce)試結果(guo)顯示,GPT-4.1在(zai)處理(li)長達128K tokens的數據時顯著優(you)于GPT-4o,并且(qie)在(zai)長達100萬tokens的上下文中依然能夠保持較高的性能。

在編(bian)碼(ma)能力測試中,SWEBench評估(gu)將模型置于Python代碼(ma)庫環境,讓(rang)其探索代碼(ma)庫、編(bian)寫代碼(ma)和測試用例。結果顯示(shi),GPT-4.1的準確率達(da)到55%,而GPT-4o僅(jin)為33%。

在多(duo)語言(yan)(yan)編(bian)碼(ma)能力測(ce)試方面(mian),Ader polyglot基準測(ce)試涵(han)蓋多(duo)種編(bian)程語言(yan)(yan)和(he)不同格式要(yao)求。GPT-4.1在差異性(xing)能上較GPT-4o提升(sheng)一(yi)倍,在處理多(duo)語言(yan)(yan)編(bian)程任務、代碼(ma)優化和(he)版本管理時更(geng)高效(xiao)。

在指令(ling)(ling)遵(zun)循能力測(ce)試中,OpenAI構建內(nei)部評(ping)估體(ti)系,模擬API開發者使用場景,測(ce)試模型對復雜(za)指令(ling)(ling)的遵(zun)循能力。每個(ge)樣本包(bao)含(han)分(fen)(fen)屬(shu)不同(tong)類(lei)別的復雜(za)指令(ling)(ling),并分(fen)(fen)難(nan)度等級。在困難(nan)子集評(ping)估中,GPT-4.1遠超GPT-4o。

在多(duo)模態處理(li)(li)測(ce)試的(de)視(shi)頻MME基準(zhun)測(ce)試中,GPT 4.1對30-60分鐘無字幕視(shi)頻進行理(li)(li)解并回答多(duo)項選擇題,取得72%的(de)成績,達到(dao)當前(qian)最佳(jia)水(shui)平,在視(shi)頻內(nei)容理(li)(li)解上實現重(zhong)大突破。

價格方面,GPT-4.1系列在性能提升的同時,價格更具競爭力。GPT-4.1相比GPT-4o價格降低26%,而GPT-4.1 Nano作為最小、最快且最便宜的模型,每百萬token的成本僅為12美分。

自(zi)2022年(nian)底推出(chu)火爆的(de)ChatGPT聊天機器人(ren)以來(lai)(lai),OpenAI一直(zhi)在(zai)迅速(su)升級其模(mo)型(xing),使其遠(yuan)遠(yuan)超越文本,進入圖(tu)像(xiang)、語音(yin)和視頻領域。該公司(si)正(zheng)努力在(zai)生成(cheng)式人(ren)工智(zhi)能領域保持(chi)領先地(di)位,在(zai)這一領域,它面臨著(zhu)來(lai)(lai)自(zi)谷歌、Anthropic和馬(ma)斯克的(de)xAI等競(jing)(jing)爭對手的(de)激烈(lie)競(jing)(jing)爭。

OpenAI寫道:“我們的(de)推理模型(xing)第一次可以獨立使用所有ChatGPT工具——網頁瀏覽、Python、圖像理解(jie)和圖像生成。”“這(zhe)有助于他(ta)們更有效(xiao)地解(jie)決復(fu)雜的(de)、多步驟(zou)(zou)的(de)問題,并(bing)邁出獨立行動的(de)真正步驟(zou)(zou)。”

該公(gong)司在上個(ge)月的一(yi)輪融資(zi)中估(gu)值(zhi)為(wei)3000億美元。該公(gong)司表示,o3和o4-mini是(shi)其(qi)首批能夠“用圖像思考”的人工智能模(mo)型。根據OpenAI的說法,這(zhe)意味著“它們不(bu)僅可(ke)以(yi)看到圖像,還可(ke)以(yi)將視覺信息直(zhi)接整合到推理鏈中。”

每日經濟新(xin)聞綜合OpenAI

封面(mian)圖(tu)片來(lai)源:每日經濟新聞

如需轉載請與《每日經濟新聞》報社聯系。
未經(jing)《每日經(jing)濟新聞(wen)》報社授權,嚴禁轉載或(huo)鏡(jing)像,違者必究。

讀(du)者熱(re)線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯系索(suo)取稿(gao)酬。如您(nin)不希(xi)望作品(pin)出現(xian)在本站,可聯系我們(men)要求撤(che)下您(nin)的作品(pin)。

歡迎關注每(mei)日(ri)經濟新聞APP

每經經濟新聞官方APP

0

0