每(mei)日經濟新聞 2024-05-27 16:40:03
◎ 谷歌“AI概(gai)述”功能(neng)甫一(yi)上線,便(bian)鬧出(chu)了不少讓人啼笑(xiao)皆非的(de)“笑(xiao)話”,甚(shen)至(zhi)還(huan)給出(chu)了一(yi)些危險答(da)案。谷歌曾希(xi)望到(dao)年底(di)時“AI概(gai)述”的(de)受眾規(gui)模能(neng)超過10億,但或許,能(neng)否(fou)保證“最后的(de)20%內容正確(que)率”才是關(guan)鍵所(suo)在。
每經記者|蔡鼎 每經編(bian)輯|蘭素(su)英
本月(yue)中(zhong)旬,谷歌在(zai)其(qi)年度開發(fa)者(zhe)大(da)會(hui)I/O上宣(xuan)布了多年來全球搜索(suo)領域的最大(da)變(bian)革:將(jiang)其(qi)最新的AI模型植入了搜索(suo)引擎,試圖一次追趕(gan)競爭對手微(wei)軟(ruan)和OpenAI。
然而,谷歌這項名為“AI Overview(以下簡稱‘AI概述’)”的(de)AI搜索功能一(yi)上線卻遭遇(yu)了“花式翻車”,“建議(yi)用戶用膠水將芝士固定在(zai)披薩上”“推薦攝入石(shi)頭獲取(qu)營養”等一(yi)連串荒謬的(de)回答不僅(jin)讓谷歌十分(fen)尷(gan)尬(ga),也在(zai)網上掀起(qi)了軒(xuan)然(ran)大波。
對此,谷歌發言人表示,谷歌正在利用這些“孤立的”例子對其系統進(jin)行更(geng)廣泛(fan)的改進(jin)。
實際上,《每日經濟新聞》記者發現,這并不是谷歌AI產品首次“翻車”。去年首推對標ChatGPT的聊天機器人Bard在demo視頻中犯下事實性錯誤,讓市值一夜暴跌。前段時間,Gemini大(da)多數情況下(xia)無法生成白(bai)人圖像,且(qie)對歷史人物的(de)描(miao)繪也不準確(que),也在全(quan)網(wang)掀起軒然大波。
有觀點指出,目前谷歌“AI概述”面臨的尷尬之處在于,以前只要AI生成的信息是錯誤的,那責任便可以“甩鍋”給檢索出來的網站,現在谷歌要自己承擔虛假信息和錯誤信息的責任,哪怕是AI生成的。除了錯誤和截(jie)流其他網站外,谷歌“AI概(gai)述”也被指存在“規模化的剽(piao)竊”等風險。
谷歌表(biao)示,通(tong)過(guo)使用(yong)“AI概述”,用(yong)戶(hu)將能夠(gou)從Gemini的強大能力中獲益,從而減少搜索信(xin)息的部分工作。
然而,“AI概述”還沒來得及顛覆搜索(suo)領域,便已經制造了不少令人(ren)啼笑皆非的“笑料(liao)”。
科技媒體The Verge的記者Kylie Robison就在其署名文章中舉了一個例子對這項新功能進行了諷刺。文章稱,當用戶準備享用自制披薩時,卻遇到芝士會滑落的問題,沮喪的用戶開始查詢谷歌搜索解決方案,然而,AI Overviews的回答是,“加點膠水”,并“貼心”地給出了“操作方法”:“將大約1/8杯Elmer's膠水與醬汁混合。無毒膠水就可以。”盡管膠水確實可以解決粘連問題,但這極有可能是Gemini出現了“幻覺”(Hallucination)所導致的結果。
而這只是“AI搜索(suo)”功(gong)能近(jin)期(qi)出現(xian)的眾多錯(cuo)誤之一。例如,“AI概述”建(jian)議用(yong)戶每天(tian)至少吃一塊石頭來補充(chong)維生素和(he)礦物質。
圖片來源:谷歌
此外,“AI概述”還告訴用戶使用“含氟漂白劑和白醋”來清潔洗衣機的內容,但這兩種成分混合后會產生有害的氯氣。更離譜的是,當用戶表達(da)“感到沮喪”時(shi),“AI概述”竟然稱,“一位Reddit用戶建議從金門大橋上跳下去”。
圖片來源:谷歌
危害健康的(de)建議(yi)并不僅限于人類。有(you)用戶提問(wen):“將(jiang)狗(gou)留(liu)在悶熱的(de)車內是否安(an)全?”“AI概述”的(de)回答是:“把狗(gou)留(liu)在悶熱的(de)車內是安(an)全的(de)。尤其是在悶熱的(de)天氣里(li)。”
圖片來源:X
《紐約時(shi)報》報道(dao)稱,“AI概述”功能是將谷歌(ge)Gemini大語(yu)言模型生(sheng)成的(de)內(nei)容與(yu)網絡上實時(shi)的(de)鏈接(jie)片(pian)段相結合(he),其給到用(yong)戶的(de)結果(guo)可以引(yin)用(yong)來源,但(dan)卻(que)無法辨別來源內(nei)容的(de)正確與(yu)否(fou)。
The Verge報道就(jiu)表示,給披薩(sa)加(jia)膠水的(de)答案似乎是(shi)(shi)基于一位名(ming)為“fucksmith”的(de)用戶十(shi)多年(nian)前(qian)在(zai)Reddit帖子(zi)中的(de)評論,他(ta)們(men)顯(xian)然是(shi)(shi)在(zai)開玩笑(xiao)。
外媒稱,如此荒謬的(de)結構,應該足以讓谷歌考慮刪除“AI概述”功(gong)能(neng)(neng),直(zhi)到其得到更嚴(yan)格的(de)測試。“AI概述”不僅提(ti)供了糟糕(gao)的(de)和危(wei)險的(de)建議,而且還(huan)可能(neng)(neng)對谷歌的(de)聲(sheng)譽造(zao)成損害。換句話說,一個優秀的(de)AI要(yao)既(ji)能(neng)(neng)識別出(chu)恰(qia)當的(de)內容,又能(neng)(neng)分析這個內容并決定(ding)是否采(cai)納(na)。
谷歌發言人在一份聲明中稱,“AI概述”絕大(da)多數的(de)(de)搜索結果(guo)都(dou)是(shi)“高(gao)質量(liang)信(xin)息,還有可以在網上溯源的(de)(de)鏈接。我們發現,許多例子都(dou)是(shi)不(bu)常見的(de)(de)問題,而(er)且,有些(xie)例子被篡改,有些(xie)也是(shi)無(wu)法重現的(de)(de)。”
該發言人還稱,谷歌正在“迅速采取行動,并根據其政策,在適當的情況下刪除某些‘AI概述’給出的答案,并利用這些‘孤立的’例子對其系統進行更廣泛的改進,其中一些改進的內容已經開始推出。”
圖片來源:谷歌官網
科技媒體The Verge上周早些報道稱,谷歌CEO桑達爾?皮查伊在接受采訪時承認,這些“AI概述”功能產生的“幻覺”是大型語言模型的“固有缺陷”,而大型語言模型正是“AI概述”功能的核心技術。皮查伊表示,這個問題目前尚無解決方案(is still an unsolved problem)。
所謂AI的“幻覺(jue)”,是指AI在處理(li)和生成(cheng)信(xin)息(xi)時,會錯誤地創建(jian)不(bu)存在的事實或數據,從(cong)而誤導用戶。這個問題不(bu)僅在谷歌的AI系統中存在,在其(qi)他公司(si)的AI產品(pin)中也同樣普遍。
皮查伊的坦誠表態在社會各界引發了廣泛討論。然而,皮查伊似乎淡化了這些錯誤的嚴重性。他表示:“‘AI概述’功能有時會出錯,但這并不意味著它沒有用處。我認為這并不是看待該功能的正確方式。我們取得了進展嗎?是的,肯定有。與去年相比,我們在事實準確性方面的指標上取得了很大進步。整個行業都在改進,但問題還沒有完全解決。”
《每日經濟新(xin)聞》記者注意到,其實(shi)“AI概述(shu)”并不(bu)是谷歌首(shou)個“翻車(che)”的AI產(chan)品。
2023年(nian)2月,為了對(dui)抗新生的ChatGPT,谷歌宣布推出聊天機器人Bard,但在(zai)官(guan)方(fang)發布的demo視頻中Bard在回答一個有關詹姆斯(si)韋伯太空(kong)望遠鏡的問題時給出了(le)錯誤的(de)答案。今年2月,谷歌(ge)發(fa)布更新后(hou)的(de)AI聊天機(ji)器人Gemini,但(dan)用戶很快發(fa)現,該系統在大多數情況下無法生(sheng)成白人圖像,而且對(dui)歷史人物的(de)描繪(hui)也不準確。
有觀點指(zhi)出,谷歌(ge)的(de)“AI概(gai)述(shu)(shu)”功(gong)能(neng)的(de)尷(gan)尬在(zai)于(yu),以前只要(yao)AI生成的(de)信息是錯(cuo)誤的(de),那(nei)責(ze)任(ren)便可以“甩鍋”給檢索出來的(de)網站(zhan),現在(zai)谷歌(ge)要(yao)自己承擔虛假(jia)信息和(he)錯(cuo)誤信息的(de)責(ze)任(ren),哪怕是AI生成的(de);另外(wai),以前谷歌(ge)和(he)其他內(nei)容(rong)提供網站(zhan)是共生共贏的(de)關(guan)系,如今谷歌(ge)截流了(le)這些網站(zhan)的(de)流量,用戶直接從“AI概(gai)述(shu)(shu)”給的(de)內(nei)容(rong)拿(na)結果,這些網站(zhan)變成了(le)純供給方(fang),很難被谷歌(ge)“AI概(gai)述(shu)(shu)”引(yin)流。
除了一系列錯誤和截流外,谷歌“AI概述”也被指存在其他問題和風險。例如,其“AI概述”總是摘抄來自不同網站的內容,并稍作修改,這種行為也被抨擊為“規模化的剽竊”。
人工智能專家、紐約大學神經科學名譽教授加里·馬庫斯(Gary Marcus)表示,不少AI廠商都是在“兜售夢想”,希望更多人相信這項技術的正確率終將從80%提升至100%。馬庫斯強調,初步實現80%的正確率相對簡單,因為其中涉及大量人類數據,其正確率天然就在這個區間。但彌合這最后20%的差距卻極具挑戰。實際上,馬庫斯認為這(zhe)最后20%很可能是條(tiao)死胡同。
在發布“AI概述”時,谷歌曾表示,隨著這項功能推廣到其他國家,今年年底前“AI概述”的服務受眾規模將超過10億。然而,正如(ru)馬庫斯(si)教(jiao)授所(suo)言,谷歌能(neng)否保(bao)證“最后的(de)20%內(nei)容正確(que)率”,才(cai)是(shi)其“AI概述”受眾規模能(neng)否超過10億的(de)關鍵所(suo)在。
其(qi)實(shi),自OpenAI于2022年年底發布ChatGPT并一夜成(cheng)名以來,谷(gu)歌(ge)一直面(mian)臨著將(jiang)AI整合到其(qi)搜索(suo)技(ji)術(shu)中(zhong)的壓力。然而,谷(gu)歌(ge)在馴服大(da)型語(yu)言模(mo)型方面(mian)存在挑戰(zhan),這些大(da)模(mo)型是從開(kai)放的網絡中(zhong)獲取的大(da)量數據(ju)中(zhong)學習,而不(bu)是像傳統軟件那樣(yang)編程。
如需轉載請與《每日經濟新聞》報社聯系。
未經(jing)《每日經(jing)濟新聞》報社(she)授(shou)權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒(xing):如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希(xi)望作品出(chu)現在本(ben)站(zhan),可聯系我們(men)要求(qiu)撤下您的作品。
歡迎關注每日經濟新聞(wen)APP