男欢女爱销魂蚀骨免费阅读,性欧美丰满熟妇XXXX性久久久,适合单身男人看的影片,www天堂无人区在线观看,悟空影视免费高清

每日經濟新聞
要聞

每經網首頁 > 要聞 > 正文

未知風險太大!馬斯克等1000多名大佬發公開信:立即暫停訓練比GPT-4更強大的AI

每日經(jing)濟新聞 2023-03-29 16:09:25

每(mei)經記者|李孟林    每(mei)經編輯(ji)|程鵬 蘭素英     

CFF20LXzkOyV2JWCicmzjrob8yLqkLrPySmXb6Qs7cLutPJzicpMhT64HrDummjib5wzkWCHPlUMesNMulKGBTHvg.jpg

OpenAI的(de)強(qiang)大性(xing)能不僅讓全球“打工人”都感到緊(jin)張,業界大佬們也(ye)感到步子邁得(de)太快了,需(xu)要(yao)暫(zan)停一(yi)下(xia),評估其(qi)中的(de)風險(xian)。

北(bei)京時間3月29日,由圖靈獎(jiang)得主、深(shen)度學(xue)習三(san)巨頭(tou)之(zhi)一(yi)約書亞·本吉奧(Yoshua Bengio),埃隆(long)·馬斯(si)克,《人(ren)類簡史》作者(zhe)尤(you)瓦爾·赫拉利等人(ren)聯名發表(biao)公(gong)開信呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統,為期至少6個月,以確保人類能夠有效管理其風險。暫(zan)(zan)停工作應該是公開且可以(yi)證實(shi)的,如果(guo)AI實(shi)驗室(shi)不(bu)能快速暫(zan)(zan)停,各國政(zheng)府(fu)應該實(shi)行暫(zan)(zan)停令。

截至發(fa)稿(gao),這份公開(kai)信已經征集到1128份簽名。

CFF20LXzkOwiaKW9R5fwrmBE6fkLWwMsrUtXH1WmxibzXnGEop0jc0jzcJnMLQDoibfc3U7IKdDUBcianz2TdwAibsQ.jpg

圖片來源:futureoflife.org

CFF20LXzkOwNfsay86cib4p0S2T0NfBIZicSMl7tYnKBaibmLibs8uIQI1mZYasibU5KFf6wlMM5EENdMic3ibFTHCmUw.pngOpenAI創始人:

AI需要政府與社會的共同監管

公(gong)開信指出,AI現(xian)在(zai)(zai)已(yi)經能(neng)和人(ren)類競爭(zheng),將給人(ren)類社會帶來深(shen)刻(ke)的(de)變(bian)革。在(zai)(zai)這個關鍵時刻(ke),我們(men)必須(xu)思(si)考AI的(de)潛在(zai)(zai)風險:假新(xin)聞和宣傳充斥(chi)信息渠道、大(da)量工(gong)作被(bei)自(zi)動(dong)化取代、人(ren)工(gong)智能(neng)甚至有一天會比人(ren)類更聰(cong)明(ming)、更強大(da),讓我們(men)失去對人(ren)類文明(ming)的(de)掌控。這些問題不應該交(jiao)給“未經民(min)選的科技領袖(xiu)”來決定(ding)。

然而,各大AI實驗室為(wei)了(le)開發和應(ying)用(yong)更加強(qiang)大的人(ren)工智能,最近幾個月已經陷入了(le)“失控(kong)(kong)”的競賽,甚至連AI系統的創(chuang)始人(ren)也(ye)并不能完(wan)全理(li)解、預(yu)測和有效控(kong)(kong)制其風險,相應(ying)的計劃(hua)和管理(li)工作沒有跟上。

實際上,面(mian)(mian)對OpenAI產品在全球的(de)火爆(bao)程度(du),OpenAI創(chuang)始人兼CEO山(shan)姆·阿爾特(te)曼自己也感到(dao)有些害怕。他近日在接受媒(mei)體采訪(fang)時(shi)表示(shi),自己對AI如何(he)影(ying)(ying)響勞(lao)動力市場(chang)、選舉和(he)虛(xu)假信息的(de)傳播有些“害怕”。AI需要(yao)政府和(he)社會共同參與監(jian)管,用戶反饋(kui)和(he)規則制定對抑(yi)制AI的(de)負面(mian)(mian)影(ying)(ying)響非常(chang)重(zhong)要(yao)。

《每日經濟新聞》注意(yi)到(dao),在簽名名單(dan)里(li)的尾部,赫然(ran)出現了阿爾(er)特曼的名字。然(ran)而,由于簽名是公開征集,尚(shang)無(wu)法證明是否是阿爾(er)特曼本人(ren)簽署,其本人(ren)亦未回(hui)應。簽名中OpenAI最(zui)后一個(ge)字母為小寫,或有故意(yi)之(zhi)嫌疑。

CFF20LXzkOwiaKW9R5fwrmBE6fkLWwMsrRokhwX6iaOMrWS8DZwDVXXxrLBWjpoePslj0G1qJ3AFzWhzTpQLOLaQ.jpg

圖(tu)片來源(yuan):futureoflife.org

簽署(shu)人(ren)之一、紐約大學著名AI研(yan)究者Gary Marcus也在(zai)推特(te)上發問:“是(shi)你嗎,山姆?”

CFF20LXzkOwiaKW9R5fwrmBE6fkLWwMsr0VF2jlicyicPMmichC5w15aibdMD7mePeylQJO2HDO0wTdWjR8HAMqbdxQ.png

圖片來源:GaryMarcus@twitter

CFF20LXzkOwNfsay86cib4p0S2T0NfBIZicSMl7tYnKBaibmLibs8uIQI1mZYasibU5KFf6wlMM5EENdMic3ibFTHCmUw.png

千余名大佬聯名“發聲”

第一批簽名人(ren)里(li)面可謂(wei)大佬云集。

約書亞(ya)·本(ben)吉(ji)奧因對深(shen)度學(xue)習的(de)貢獻,在2018年與“深(shen)度學(xue)習之父” 杰弗里(li)·辛(xin)頓 (Geoffrey Hinton)、Facebook首(shou)席科學(xue)家楊力(li)昆(Yann LeCun)一起獲得了(le)圖靈獎。三人被(bei)稱為“AI教父”。

后兩人雖然沒有參與公開信的簽名,但(dan)最近(jin)對OpenAI以及AI領域(yu)的快速(su)發展(zhan)都表示了擔憂或批(pi)評。辛頓在近日接受哥(ge)倫比亞廣播公司采訪時表示(shi),AI消滅人類“并非不可想象”,人(ren)類需要警惕(ti)AI會給一(yi)小部(bu)分公司和(he)政府帶來巨大的權力。作為(wei)Facebook的AI領頭人(ren),楊(yang)力昆則一(yi)直對OpenAI的大語言模型路(lu)徑不屑一(yi)顧,認為(wei)其科技并無特別創新之處。

馬斯(si)克作為(wei)OpenAI的(de)(de)共同創始人之(zhi)一,一直也(ye)毫不掩蓋(gai)他對OpenAI的(de)(de)敵意,認為(wei)其過商業(ye)化,從(cong)開源變成(cheng)了“閉(bi)源”,已經忘了非盈利和(he)開放(fang)的(de)(de)“初(chu)心”。但(dan)最近也(ye)有新聞指出,馬斯克之(zhi)所以如此敵視OpenAI,是(shi)因為(wei)2018年爭奪(duo)OpenAI經營(ying)權失敗,所以撤資(zi)走人。

此外(wai),簽名人(ren)還包括蘋果聯合(he)創始人(ren)史蒂夫(fu)·沃茲尼亞克、2020年美國總統選舉民(min)主(zhu)黨初選候選人(ren)楊安(an)澤(ze)、AI經典教科書《人(ren)工智能: 一種現代方法(fa)》作者Stuart Russell、AI領軍公司DeepMind的一眾(zhong)研究人(ren)員等。

CFF20LXzkOwiaKW9R5fwrmBE6fkLWwMsrS7ArlqpsibJVb1u2yHPBVnlfhXkiapGahpfsXT5TiaFnBDYQ8RyESB8hg.jpg

圖(tu)片來源:GaryMarcus@twitter

CFF20LXzkOwNfsay86cib4p0S2T0NfBIZicSMl7tYnKBaibmLibs8uIQI1mZYasibU5KFf6wlMM5EENdMic3ibFTHCmUw.png

新聞鏈接:公開信原文

正如廣泛的研(yan)究(jiu)和頂級人工(gong)(gong)智能(neng)實(shi)驗室(shi)所承認的,人工(gong)(gong)智能(neng)系統(tong)對社會和人類構(gou)成(cheng)較大的風險。《阿西洛馬人工(gong)(gong)智能(neng)原則》中指出,高級人工(gong)(gong)智能(neng)可(ke)能(neng)代表著(zhu)地球(qiu)上生命(ming)歷史的深刻變(bian)革,應該(gai)以(yi)相應的謹慎和資源(yuan)進行(xing)規劃(hua)和管(guan)理(li)。然而,盡管(guan)最近(jin)幾個月(yue)人工(gong)(gong)智能(neng)實(shi)驗室(shi)掀起AI狂潮,開發和部署越來越強大的數(shu)字大腦(nao),但(dan)目前沒有人能(neng)理(li)解、預(yu)測或(huo)可(ke)靠地控制AI系統(tong),也沒有相應水平的規劃(hua)和管(guan)理(li)。

現在,人工(gong)智(zhi)能在一(yi)(yi)般任(ren)務(wu)上變(bian)得(de)與人類(lei)(lei)一(yi)(yi)樣有競爭(zheng)力,我(wo)(wo)們(men)必須(xu)(xu)問(wen)自(zi)己(ji):我(wo)(wo)們(men)應(ying)該(gai)(gai)讓機器在信息渠(qu)道中宣傳(chuan)不真實的(de)(de)(de)信息嗎(ma)?我(wo)(wo)們(men)是(shi)否(fou)應(ying)該(gai)(gai)把所有的(de)(de)(de)工(gong)作(zuo)(zuo)都自(zi)動化,包括那些有成就感的(de)(de)(de)工(gong)作(zuo)(zuo)?我(wo)(wo)們(men)是(shi)否(fou)應(ying)該(gai)(gai)開(kai)(kai)發非(fei)人類(lei)(lei)的(de)(de)(de)大腦,使其(qi)最終超過人類(lei)(lei)數(shu)量,勝過人類(lei)(lei)的(de)(de)(de)智(zhi)慧,淘汰并取(qu)代人類(lei)(lei)?我(wo)(wo)們(men)是(shi)否(fou)應(ying)該(gai)(gai)冒著(zhu)失去(qu)對我(wo)(wo)們(men)文明控(kong)制的(de)(de)(de)風險?這樣的(de)(de)(de)決定(ding)絕不能委托(tuo)給(gei)未經選(xuan)舉的(de)(de)(de)技術領袖。只有當我(wo)(wo)們(men)確信強(qiang)大的(de)(de)(de)人工(gong)智(zhi)能系統的(de)(de)(de)效果是(shi)積極的(de)(de)(de),其(qi)風險是(shi)可控(kong)的(de)(de)(de),才應(ying)該(gai)(gai)開(kai)(kai)發。同(tong)時(shi),這種信心必須(xu)(xu)得(de)到驗(yan)證,并隨(sui)著(zhu)系統的(de)(de)(de)潛在影響的(de)(de)(de)大小而加強(qiang)。OpenAI最近關于(yu)人工(gong)智(zhi)能的(de)(de)(de)聲明中指出(chu),在開(kai)(kai)始(shi)訓練(lian)未來的(de)(de)(de)系統之前,可能必須(xu)(xu)得(de)到獨立的(de)(de)(de)審查,對于(yu)最先進的努力,同意限制用于創(chuang)建新模型的計(ji)算增(zeng)長速度。我們同意,現在(zai)就該采取行動。

因此(ci),我(wo)們呼吁(yu)所(suo)有人(ren)工智(zhi)能(neng)(neng)實驗室立(li)即暫(zan)停(ting)比GPT-4更強大的(de)(de)人(ren)工智(zhi)能(neng)(neng)系統的(de)(de)訓(xun)練,時間至少(shao)持(chi)續6個月(yue)。這種暫(zan)停(ting)應(ying)該是公(gong)開的(de)(de)、可核查的(de)(de),并(bing)(bing)包括所(suo)有關鍵參與者(zhe)。如果這種禁令不能(neng)(neng)迅(xun)速實施,政府應(ying)該介(jie)入并(bing)(bing)制定暫(zan)停(ting)令。

人工(gong)智能實(shi)驗室和(he)(he)獨立專家應在暫(zan)停期間,共同制定(ding)和(he)(he)實(shi)施(shi)一(yi)套先進(jin)的(de)(de)人工(gong)智能設計和(he)(he)開發(fa)的(de)(de)共享安(an)全協議(yi),由獨立的(de)(de)外部專家進(jin)行嚴格的(de)(de)審(shen)查和(he)(he)監督。這些協議(yi)應該確保遵守(shou)協議(yi)的(de)(de)系統是(shi)安(an)全的(de)(de)。值得一(yi)提的是,這并不意(yi)味著暫停一(yi)般的人工(gong)智(zhi)能開(kai)發(fa),只是從危險的競賽中退后一(yi)步,限制不可(ke)預測的研(yan)究和開(kai)發(fa)。

人工智能的研究和開發應(ying)該重新(xin)聚焦于(yu),使目(mu)前最先進和(he)強大的系統更(geng)加準確(que)、安全(quan)、可解釋(shi)、透明、穩(wen)健、一致、值得信賴和(he)忠(zhong)誠。

同時,人工智能開發者必須與政策制定者合作,大幅加快開發強大的人工智能治理系統。這(zhe)些至少應該包(bao)括:專門針對(dui)(dui)人(ren)(ren)工智(zhi)能(neng)(neng)的監管(guan)機構(gou);監督和(he)(he)跟蹤(zong)(zong)高能(neng)(neng)力的人(ren)(ren)工智(zhi)能(neng)(neng)系統(tong)和(he)(he)大(da)型(xing)(xing)計算能(neng)(neng)力的硬件;出處和(he)(he)水印系統(tong)幫助區分真實(shi)和(he)(he)合成,并跟蹤(zong)(zong)模型(xing)(xing)泄漏;強大(da)的審查和(he)(he)認證(zheng)生態系統(tong);對(dui)(dui)人(ren)(ren)工智(zhi)能(neng)(neng)造(zao)成的傷(shang)害承擔責任(ren);為人(ren)(ren)工智(zhi)能(neng)(neng)安(an)全技術研究提供強大(da)的公共資(zi)金以及資(zi)源充足的機構(gou),以應對(dui)(dui)人(ren)(ren)工智(zhi)能(neng)(neng)可能(neng)(neng)導致的巨大(da)的經濟和(he)(he)政治(zhi)破壞(huai)。

人(ren)類可以(yi)通過人(ren)工(gong)智能(neng)(neng)享(xiang)受繁榮的(de)未來。現在(zai),我(wo)們成功地創建(jian)了強大的(de)人(ren)工(gong)智能(neng)(neng)系統(tong),可以(yi)在(zai)這個“人(ren)工(gong)智能(neng)(neng)之夏”中獲(huo)得回報(bao),為所有人(ren)的(de)明確(que)利益設計這些系統(tong),并給社(she)會一(yi)個適應的(de)機會。停止使(shi)用其他技術(shu)可能(neng)(neng)會對社(she)會造成災難性影響,因此我(wo)們必須(xu)保持準備狀態(tai)。讓我(wo)們享(xiang)受一(yi)個漫長的(de)人(ren)工(gong)智能(neng)(neng)夏天,而不是(shi)匆(cong)忙進入(ru)秋天(fall,亦(yi)可指墜落)。

記者|李孟林(lin)

編輯|鵬?蘭素英 杜(du)恒峰

校對|王月龍(long)

封(feng)面圖片(pian)來源:視(shi)覺(jue)中國

部分綜合自21財經、紅星新(xin)聞(wen)

CFF20LXzkOyYmal29zn37N5Bg2NQ4tyN4ylvMFyM3VmF4x90Uj4cDmoEphibia4RN55ibIXmqU1Od9w2Q5nhA08lA.png

|每日(ri)經濟新聞 ?nbdnews??原創文章(zhang)|

未經許可禁止轉載、摘編、復(fu)制及鏡像等(deng)使用(yong)

如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報(bao)社(she)授權(quan),嚴禁轉載或鏡(jing)像,違者必究。

讀者(zhe)熱線:4008890008

特別提醒(xing):如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如(ru)您不希望(wang)作品出現在本(ben)站,可聯(lian)系我們要求撤下您的(de)作品。

歡迎關注每(mei)日經濟新聞APP

每經經濟新聞官方APP

0

0