每(mei)日經濟新聞 2023-04-11 00:03:48
每經(jing)記者|李(li)孟(meng)林 蔡鼎 譚(tan)玉(yu)涵 每經(jing)編輯|譚(tan)玉(yu)涵 蘭素英(ying) 盧祥勇 易啟江
因強大功能而爆紅的ChatGPT正因數據隱私和安全(quan)風險在全(quan)球(qiu)掀起一場監管(guan)風暴。
一周之內,意大利、德國(guo)、法國(guo)、愛(ai)爾蘭等8國(guo)相繼“出手”。此(ci)外,它還可能面臨全球(qiu)首例AI誹(fei)謗訴訟。據悉,馬斯克(ke)此(ci)前發起的暫停訓(xun)練比(bi)GPT-4更強大的AI系統的公開信響應人數(shu)仍在不斷增加,截至發稿,已有超1.8萬人簽名。
意大利監管方是出(chu)于何種考(kao)慮(lv)?AI會出(chu)現意識嗎?《每日經濟新聞》記者連(lian)線愛爾蘭數(shu)據保護委(wei)員會以及(ji)中國人民大學高瓴人工智能(neng)學院(yuan)教(jiao)授(shou)盧志(zhi)武進(jin)行(xing)解讀。
人(ren)工智能的未來,充滿巨大想象空間。圖為第六屆(jie)世界(jie)智能大會上,參會嘉(jia)賓在參觀展覽(lan) 新華(hua)社圖
8國“圍剿”ChatGPT
因(yin)強大功能而爆紅的ChatGPT正因(yin)數據隱私和安全(quan)風險在全(quan)球掀起一場監(jian)管風暴。
繼(ji)(ji)意大(da)利宣(xuan)布暫時封禁ChatGPT之(zhi)后,德(de)國也表(biao)示正(zheng)在(zai)考慮暫時禁用。緊隨其(qi)后,法(fa)國、愛爾蘭(lan)、西班牙等(deng)歐洲國家的(de)監(jian)管(guan)機構(gou)(gou)也相(xiang)繼(ji)(ji)表(biao)達(da)了(le)類似可能(neng)性。與(yu)此同(tong)時,加拿大(da)的(de)隱私監(jian)管(guan)機構(gou)(gou)已(yi)經宣(xuan)布對(dui)OpenAI展開調查,美國方面也在(zai)探討加強對(dui)AI的(de)監(jian)管(guan)。不(bu)僅如此,由于生成了(le)虛假內(nei)容(rong),ChatGPT恐將在(zai)澳大(da)利亞面臨全球首例誹(fei)謗訴訟。
此(ci)外,馬斯克、圖(tu)靈獎得主本(ben)吉奧(ao)等1000余(yu)名科技大(da)佬還發表聯名公開(kai)(kai)信,呼吁(yu)所有AI實(shi)驗室立即暫停訓練(lian)比(bi)GPT-4更(geng)強大(da)的AI系統至(zhi)少6個月。截至(zhi)發稿,這份公開(kai)(kai)信的簽名人數已超18000人。
“我們(men)正在關注意大利(li)監(jian)管機構(gou)的行動(dong)(dong),以了解(jie)其行動(dong)(dong)背后的理(li)由。在ChatGPT這件事(shi)情上我們(men)將(jiang)和歐盟所有的數(shu)據保(bao)護(hu)機構(gou)協(xie)作。”愛爾蘭數(shu)據保(bao)護(hu)委員會(DPC)對《每日經濟新聞》記者表示。
意大利對(dui)ChatGPT的(de)禁令,掀起了一輪針對(dui)OpenAI的(de)監管(guan)風(feng)暴,德國監管(guan)機構已計劃(hua)跟進(jin),表示正在考慮暫(zan)時禁用ChatGPT,緊隨(sui)其后,法國、愛爾蘭、西(xi)班牙(ya)等歐(ou)洲國家(jia)的(de)數據監管(guan)也相(xiang)繼表達了類似擔憂。
OpenAI面(mian)臨的壓力可謂與日俱增。除歐洲外,加(jia)拿大方面(mian)已經采取(qu)行動(dong),其隱私監管(guan)機(ji)構宣布因(yin)數據違規問(wen)題對(dui)OpenAI展開(kai)調查。而在美國,拜(bai)登也會見了科技顧(gu)問(wen),討論AI帶來的風險(xian)和機(ji)遇,并表示將加(jia)強監管(guan)。
為(wei)了打消(xiao)疑慮(lv)和擔(dan)憂,OpenAI也在(zai)積極行動。當(dang)地時間4月5日(ri)晚,OpenAI CEO薩姆(mu)·阿爾特曼表示將于(yu)次日(ri)向意(yi)大利數(shu)據(ju)保(bao)護局(ju)提交相應措施(shi)。意(yi)大利數(shu)據(ju)保(bao)護局(ju)表示將評估OpenAI的(de)方案,該(gai)機構同時強調,他們無意(yi)阻礙(ai)人工智能技術(shu)的(de)發展(zhan)。同日(ri),OpenAI還在(zai)官網發布了題為(wei)《我(wo)們保(bao)障AI安全(quan)的(de)方法》的(de)文章(zhang),介紹了該(gai)公司為(wei)保(bao)障安全(quan)性(xing)在(zai)六個(ge)方面(mian)進行的(de)部(bu)署。
但(dan)在(zai)隱私和數據安(an)全之外,ChatGPT生(sheng)成錯誤事實的“幻覺”問題也開始在(zai)現實世界(jie)中掀起(qi)波瀾。
據路透社4月(yue)5日(ri)報道,澳(ao)大利亞赫本(ben)郡市長布賴(lai)恩(en)·胡德(Brian Hood)稱在ChatGPT生成(cheng)的(de)內容里,自己因賄賂東南亞官員而(er)被判處30個月(yue)監禁(jin),這與事實完全(quan)不符(fu),但“其中有(you)些段落卻(que)是絕對精確(que)的(de),包括(kuo)數(shu)字、姓名、日(ri)期、地點等”。
胡德表(biao)示(shi),如(ru)果OpenAI不糾(jiu)正ChatGPT關(guan)于其曾因(yin)賄賂入獄服刑的(de)虛假說法(fa),他(ta)可能會起(qi)訴(su)OpenAI,這將是針(zhen)對生成式AI的(de)第一起(qi)誹謗訴(su)訟。
對(dui)于意大利暫(zan)時封禁ChatGPT的做法,中國人(ren)民大學(xue)高瓴人(ren)工智能學(xue)院教授、首個中文通用多模(mo)態(tai)預訓(xun)練模(mo)型“文瀾BriVL”的主要設計(ji)者盧志武認為這并(bing)不明(ming)智。
“一(yi)個新技術(shu)總(zong)會有(you)好(hao)的(de)和不好(hao)的(de)方(fang)面(mian),不能說因為(wei)有(you)不好(hao)的(de)地(di)方(fang)就(jiu)把(ba)它禁(jin)掉(diao)。汽車會造成車禍(huo),難道就(jiu)因此把(ba)汽車禁(jin)掉(diao)嗎?歐洲(zhou)本來在AI方(fang)面(mian)就(jiu)落(luo)后于美國,與中國也有(you)差距,禁(jin)掉(diao)之(zhi)后不是會更差么?”他對(dui)《每日經濟新聞》記(ji)者解釋稱。
“像隱私問題和AI生成內容以(yi)假亂(luan)真的問題,可以(yi)通過法律(lv)手段去約束AI模型(xing),這樣研(yan)發(fa)者(zhe)在訓練模型(xing)時就會規避這些風(feng)險。”盧志武進一步說道(dao)。
此外,法律還可以規定使用者(zhe)必(bi)須對AI生成的(de)圖片(pian)和(he)視頻等(deng)內(nei)容進行標注,假如(ru)國家法律部門檢測到(dao)未標注的(de)生成內(nei)容,可以采(cai)取懲罰(fa)措施。“特別是新聞相關(guan)的(de)內(nei)容,一定不能是AI生成的(de),否則就亂套(tao)了,成為(wei)了假新聞。”盧(lu)志武表示(shi)。
盧志(zhi)武認(ren)為,AI法(fa)律(lv)完善(shan)的(de)(de)目標就(jiu)是讓AI的(de)(de)開發者和使用(yong)者都“心里(li)有數(shu)”,但對于新生(sheng)事物(wu)的(de)(de)法(fa)律(lv)監管有滯后性(xing),這在AI上也不例外。
針對AI生(sheng)成內(nei)容(rong)的事(shi)(shi)實(shi)錯(cuo)誤問題,盧志武認為可以通過工程手(shou)段(duan)解決,比如先(xian)利用(yong)搜索引(yin)擎去搜索互聯網(wang)上的檔案(an)性(xing)內(nei)容(rong),然后再利用(yong)這(zhe)些內(nei)容(rong)生(sheng)成答案(an),這(zhe)樣能在很大程度上消除(chu)事(shi)(shi)實(shi)性(xing)錯(cuo)誤。
自我迭代更可怕?
數據安全(quan)和(he)錯誤(wu)內(nei)容(rong)是生成(cheng)式AI帶(dai)來的(de)緊迫而(er)現實的(de)問題,但尚可(ke)以通(tong)過技術和(he)法律(lv)手段加以規避。隨(sui)著AI技術的(de)飛速發(fa)展,人類(lei)可(ke)能面臨從未(wei)遇到過的(de)新威脅(xie)。
近(jin)日,馬斯(si)克(ke)、圖靈獎得主本吉奧等1000余名科技大(da)佬發(fa)表聯名公開信,呼吁所有AI實驗室立(li)即暫停訓練比GPT-4更強大(da)的AI系統至少6個月。公開信指出(chu),AI最終可能(neng)超(chao)越人(ren)類(lei)(lei),使人(ren)類(lei)(lei)失去(qu)對文(wen)明的掌控能(neng)力。截至發(fa)稿,這(zhe)份公開信的簽名人(ren)數(shu)已經超(chao)18000人(ren)。
盧志(zhi)武對《每日(ri)經濟新聞》記者(zhe)稱,這(zhe)份公開信的(de)目的(de)是呼吁大(da)家重視(shi)大(da)語(yu)言模(mo)型的(de)安全性,但實(shi)際上沒有操作性,因為沒有相應的(de)全球權威(wei)機構出面(mian)來暫(zan)停大(da)型AI模(mo)型的(de)實(shi)驗。
在(zai)ChatGPT展現出強大的(de)對(dui)話能力時,人類也(ye)越來越擔(dan)心:會不會AI系統在(zai)迅速進化的(de)過(guo)程(cheng)中“涌現”出自我意識?
“未來有沒有我不(bu)敢說(shuo),但至(zhi)少從GPT-4來看,它是不(bu)會產生意識(shi)的(de)。”盧志武(wu)對記者表示(shi)。“但我們開(kai)發AI的(de)終極目標(biao)(biao)是實現(xian)AGI(通用人工智能(neng)),就是讓AI模(mo)型(xing)表現(xian)得像(xiang)人一樣(yang)。如(ru)果(guo)要達到這個(ge)目標(biao)(biao),那(nei)么這個(ge)過程中真(zhen)的(de)有可能(neng)失控。”
在盧志武(wu)看來(lai),所謂(wei)的失控并不是(shi)AI出(chu)現意(yi)識,而(er)是(shi)AI學(xue)會了自(zi)我迭代。“AI模型自(zi)己不停地學(xue)習,甚至創造(zao)出(chu)新的東西(xi)來(lai),而(er)這個(ge)過程又在人(ren)類的監控之外。這種自(zi)我學(xue)習是(shi)非(fei)常容易實現的,我覺得(de)這才(cai)是(shi)AI最大的威脅(xie)。”
近(jin)日,研究人員Noah Shinn和Ashwin Gopinath在(zai)預印(yin)本網站arxiv提交論文稱,通過引入“反思”技術,GPT-4在(zai)多項高難度測試中的(de)(de)(de)表(biao)(biao)現提升了(le)30%。據(ju)悉,這種技術讓AI系統模仿人類的(de)(de)(de)自我反思,并評估自己的(de)(de)(de)表(biao)(biao)現,“GPT-4在(zai)完成各種測試的(de)(de)(de)時候,會增加(jia)一些額外的(de)(de)(de)步驟,讓它能(neng)夠(gou)自己設計測試來(lai)檢查自己的(de)(de)(de)答案,找出錯(cuo)誤和不足之處,然(ran)后根據(ju)發現來(lai)修改自己的(de)(de)(de)解決方(fang)案。”
盧志武認為,AI學會自(zi)我(wo)迭代所產生的(de)后果(guo)難以具體想象,但(dan)如(ru)果(guo)一個(ge)東(dong)西在不停地變強而人類卻不知道,這是(shi)“最可(ke)怕的(de)”。未來(lai),假如(ru)AI模(mo)型和機器人進行結合,則(ze)AI就可(ke)以產生動(dong)作,“你(ni)都不知道它(ta)是(shi)不是(shi)會拿起槍來(lai)做什么事情”。
而實(shi)際上,科學(xue)家(jia)已經在探索如何將生成式AI與機(ji)器(qi)人相結合。微軟的(de)科學(xue)家(jia)2月份發布論文稱,他們(men)正在研究利用ChatGPT來操(cao)控機(ji)器(qi)人,以(yi)實(shi)現以(yi)自然語言與機(ji)器(qi)人交互的(de)目的(de),并展(zhan)示了無(wu)人機(ji)和(he)機(ji)械臂(bei)的(de)操(cao)作案例。
封面圖片來源:新華社(she)
如需轉載請與《每日經濟新聞》報社聯系。
未經(jing)《每日經(jing)濟新聞》報社授權,嚴禁轉載或鏡(jing)像,違者必究。
讀(du)者熱(re)線(xian):4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索(suo)取稿酬。如您不希望(wang)作品出(chu)現在本站,可聯系我們(men)要求撤下您的(de)作品。
歡迎關注每(mei)日經濟新聞APP