2024-05-15 05:23:34
每經(jing)AI快訊,北京時間14日(ri)凌晨,OpenAI公(gong)(gong)司在美國加州舉辦(ban)新品(pin)發布會(hui),推出一款名為GPT-4o(歐(ou))的(de)(de)人工智能模型(xing)。公(gong)(gong)司表示,新模型(xing)具備“聽、看、說”的(de)(de)出色本領。發布會(hui)上,OpenAI公(gong)(gong)司展示了新模型(xing)的(de)(de)多個應用場(chang)景。
據介紹,GPT-4o(歐)的“o”源(yuan)自拉(la)丁語(yu),意思(si)是“全能(neng)(neng)”(字幕:omni,全能(neng)(neng)),新模型能(neng)(neng)夠處(chu)理50種不同的語(yu)言,提高了速度和(he)質量,并能(neng)(neng)夠讀取人(ren)的情(qing)緒。
新(xin)模型可(ke)以(yi)在最短232毫(hao)秒對(dui)(dui)音(yin)頻輸入做出(chu)反(fan)(fan)應(ying),與人類在對(dui)(dui)話中的反(fan)(fan)應(ying)時間相近(jin)。即(ji)使對(dui)(dui)話被打斷(duan),新(xin)模型也可(ke)以(yi)做出(chu)自然反(fan)(fan)應(ying)。這是(shi)此前(qian)人工智能語(yu)音(yin)聊(liao)天機器人做不(bu)到的。
圖(tu)像(xiang)輸入方面,研究人員(yuan)啟動攝像(xiang)頭(tou),要求實時完成一(yi)道方程題,新模型輕松完成了(le)任(ren)務;研究人員(yuan)還展示了(le)它對一(yi)張氣溫圖(tu)表進行實時解讀的能力。(央視新聞)
特別提醒(xing):如果我們使用了您的圖片,請作者與本站聯系索取稿(gao)酬。如您(nin)不(bu)希望作品出現在(zai)本站,可聯系我們要(yao)求撤下您(nin)的作品。
歡迎關注每日經濟新(xin)聞(wen)APP