每日經濟新聞 2024-05-14 21:07:51
每經AI快訊,中國銀河05月14日發布研報稱:給予傳媒互聯網推薦(維持)評級。
事件:北京(jing)時間(jian)2024年5月14日凌晨,OpenAI發(fa)布GPT-4的升(sheng)級更新版(ban)(ban)本GPT-4o,GPT-4o將(jiang)對所(suo)有用(yong)(yong)戶免(mian)費開放。同時,OpenAI宣布將(jiang)發(fa)布一個適用(yong)(yong)于macOS的新的ChatGPT桌(zhuo)面應(ying)用(yong)(yong)程序(xu),對應(ying)的Windows版(ban)(ban)本也將(jiang)在今(jin)年推出。
多模(mo)態(tai)性能(neng)進步明(ming)顯(xian),語(yu)音(yin)響應延(yan)遲(chi)大(da)幅(fu)降(jiang)低:GPT-4o 作(zuo)為(wei) Open AI 的(de)新(xin)版本大(da)模(mo)型,具有(you)以下(xia)性能(neng)亮(liang)點:1)多模(mo)態(tai)性能(neng)進步明(ming)顯(xian),GPT-4o 打(da)通(tong)(tong)了(le)文(wen)本、音(yin)頻(pin)和(he)(he)圖像的(de)輸(shu)入壁(bi)壘,使這些模(mo)態(tai)相互之間可(ke)以直接(jie)生成,無需中間轉換,在輸(shu)出(chu)端也可(ke)以直接(jie)生成上述幾(ji)種模(mo)態(tai)。2)語(yu)音(yin)響應延(yan)遲(chi)大(da)幅(fu)降(jiang)低,GPT-4o 可(ke)以在 232ms 內(nei)回應音(yin)頻(pin)輸(shu)入,平均響應時(shi)長為(wei) 320ms,對比 GPT-3.5 和(he)(he) GPT-4 的(de)平均延(yan)遲(chi)為(wei) 2800ms 和(he)(he) 5400ms。3)實時(shi)語(yu)音(yin)助(zhu)手(shou)效果亮(liang)眼,GPT-4o 能(neng)夠(gou)實時(shi)翻譯,識別(bie)表(biao)情,可(ke)以通(tong)(tong)過攝像頭識別(bie)畫面、寫(xie)代碼和(he)(he)分析圖表(biao)。同時(shi)對話內(nei)容和(he)(he)音(yin)調、語(yu)氣更(geng)接(jie)近(jin)真人(ren),能(neng)夠(gou)識別(bie)對話人(ren)的(de)“打(da)斷”并及時(shi)響應,可(ke)以給(gei)出(chu)帶有(you)人(ren)類般情緒(xu)的(de)回答(da)。
模型將免(mian)費開放(fang)(fang),API接口降價提(ti)速:GPT-4o 將向所有用戶(hu)(hu)免(mian)費開放(fang)(fang),并(bing)將在未來(lai)幾周先向 Chat GPT Plus 用戶(hu)(hu)推送。GPT-4o 提(ti)供的(de) API 接口對比上(shang)一版本的(de) GPT-4 Turbo,在速率提(ti)高(gao)一倍(bei)的(de)基礎上(shang),價格僅為原(yuan)來(lai)的(de) 1/2。同時,GPT-4o 允許的(de)單位時間(jian)調用次數(shu)也提(ti)高(gao)到了原(yuan)來(lai)的(de) 5 倍(bei)。
模型(xing)易用(yong)(yong)性大(da)幅提升(sheng),拓寬智能設備(bei)應(ying)用(yong)(yong)場景:GPT-4o 在一(yi)定程度(du)上顛覆(fu)了以往人類與計(ji)算機交互的(de)(de)模式:通(tong)過幾乎實時的(de)(de)響應(ying)速度(du)和(he)與人類相近(jin)的(de)(de)、帶有音調(diao)和(he)語氣的(de)(de)回復,人類與計(ji)算機的(de)(de)交互變得更加真實和(he)順暢。隨著后續相關應(ying)用(yong)(yong)的(de)(de)落地,疊加 GPT-4o 免費開放使得用(yong)(yong)戶數(shu)量大(da)幅度(du)提升(sheng),我(wo)們認為:智能終端(duan)設備(bei)(手機、電腦、智能眼鏡等)的(de)(de)應(ying)用(yong)(yong)場景有望進一(yi)步拓寬。
投(tou)資(zi)建(jian)議:隨(sui)著(zhu) 2023 年以(yi)來各種人(ren)(ren)工智(zhi)(zhi)(zhi)能大(da)模型的(de)(de)(de)不(bu)斷迭代更新,目前(qian)主流人(ren)(ren)工智(zhi)(zhi)(zhi)能大(da)模型的(de)(de)(de)智(zhi)(zhi)(zhi)能水平已(yi)經(jing)達到(dao)了相(xiang)當(dang)的(de)(de)(de)水平。GPT-4o 的(de)(de)(de)發(fa)布,標(biao)志(zhi)著(zhu)人(ren)(ren)工智(zhi)(zhi)(zhi)能大(da)模型在便利性(xing)和易用(yong)(yong)性(xing)上實現了突破(po),考慮到(dao)后續隨(sui)著(zhu)GPT-4o 免(mian)費對(dui)(dui)(dui)用(yong)(yong)戶開放,用(yong)(yong)戶數量(liang)的(de)(de)(de)快速增長確定性(xing)較高,我們認為,人(ren)(ren)工智(zhi)(zhi)(zhi)能的(de)(de)(de)對(dui)(dui)(dui) C 端(duan)的(de)(de)(de)影響力有望增強,看好相(xiang)關(guan)(guan)垂類(lei)應用(yong)(yong)的(de)(de)(de)發(fa)展前(qian)景。建(jian)議關(guan)(guan)注(zhu)與 C 端(duan)用(yong)(yong)戶體驗(yan)密切相(xiang)關(guan)(guan)的(de)(de)(de)行業(ye):1)AI+游戲:游戲內 NPC互動(dong)、互動(dong)影游;2)AI+教(jiao)育:智(zhi)(zhi)(zhi)教(jiao)系統(tong)、虛(xu)擬實驗(yan)室(shi);3)AI+辦公:內容生成、非結構化數據處理;4)AI+出版:校對(dui)(dui)(dui)修改、智(zhi)(zhi)(zhi)慧(hui)發(fa)行;5)AI+專業(ye)咨詢:情感陪(pei)護,應用(yong)(yong)場景專業(ye)解答等(deng)。
風(feng)險(xian)提(ti)(ti)示:大模型技術發展(zhan)不及(ji)預(yu)期的(de)(de)風(feng)險(xian)、政(zheng)策監管變化的(de)(de)風(feng)險(xian)、行業競爭的(de)(de)風(feng)險(xian)、相關技術應用(yong)不及(ji)預(yu)期的(de)(de)風(feng)險(xian),算力(li)需求提(ti)(ti)升可(ke)能帶(dai)來(lai)的(de)(de)成本提(ti)(ti)高(gao)的(de)(de)風(feng)險(xian)。
每經頭條(tiao)(nbdtoutiao)——
(記者 王曉波)
免責(ze)聲(sheng)明:本文內容與(yu)數據僅供參考(kao),不構成(cheng)投資建議,使用前請核實。據此(ci)操作,風險自擔(dan)。
如需轉載請與《每日經濟新聞》報社聯系。
未經(jing)《每日經(jing)濟新(xin)聞》報(bao)社授(shou)權,嚴禁轉(zhuan)載或鏡像,違者必究。
讀(du)者(zhe)熱線(xian):4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿(gao)酬。如您(nin)不希望作品出現在本站(zhan),可聯系我們要求撤下您(nin)的作品。
歡(huan)迎關注每(mei)日(ri)經濟新聞APP