中國日報網(wǎng)3月29日電 據(jù)路透社當?shù)貢r間29日報道,埃隆·馬斯克(Elon Musk)和一群人工智能專家和行業(yè)高管在公開信中呼吁暫停開發(fā)比OpenAI新推出的GPT-4更強大的系統(tǒng),暫停6個月,并指出對社會和人類存在潛在風險。
這封公開信由非營利組織未來生命研究所(FLI)公布,有包括馬斯克在內的1000多人簽署,呼吁暫停高級人工智能的開發(fā),直到獨立專家開發(fā)、實施和審計這類設計的共享安全協(xié)議。信中寫道:“只有在我們確信它們的效果是積極的,風險是可控的情況下,才應該開發(fā)強大的人工智能系統(tǒng)?!?/p>
這封信詳細描述了具有人類競爭力的人工智能系統(tǒng)以經(jīng)濟和政治干擾的形式對社會和文明的潛在風險,并呼吁開發(fā)者與決策者在治理和監(jiān)管機構方面進行合作。
聯(lián)合簽署人包括Stability AI首席執(zhí)行官埃馬德·莫斯塔克(Emad Mostaque),谷歌母公司 Alphabet旗下DeepMind的研究人員,以及人工智能重量級人物圖靈獎得主約書亞·本希奧(Yoshua Bengio)和美國加州大學伯克利分校(UC Berkeley)計算機科學教授(Stuart Russell)。
根據(jù)歐盟的透明登記制度,F(xiàn)LI主要由馬斯克基金會、總部位于倫敦的有效利他主義組織Founders Pledge和硅谷社區(qū)基金會資助。
27日,歐洲刑警組織(Europol)也加入了對ChatGPT等先進人工智能的道德和法律擔憂的行列,警告該系統(tǒng)可能被濫用于網(wǎng)絡釣魚、虛假信息和網(wǎng)絡犯罪。
與此同時,英國政府公布了圍繞人工智能建立“適應性強”監(jiān)管框架的提案。該國政府最新發(fā)布的一份政策文件中概述了其做法,將把管理人工智能(AI)的責任分配給人權、健康與安全以及競爭方面的監(jiān)管機構,而不是創(chuàng)建一個專門針對這項技術的新機構。
FLI的發(fā)言人告訴路透社,OpenAI首席執(zhí)行官山姆·阿爾特曼(Sam Altman)還沒有簽署這封信。OpenAI沒有立即回復記者的置評請求。
在這封信上簽了名的紐約大學教授加里·馬庫斯(Gary Marcus)說:“這封信并不完美,但其精神是正確的:我們需要慢下來,直到我們更好地理解其后果?!薄八鼈儠斐蓢乐貍Α笸婕覀儗λ麄冋谧龅氖虑樵絹碓秸谡谘谘?,這使得社會很難抵御任何可能發(fā)生的傷害?!?/p>
(編譯:胡曉珊 編輯:韓鶴)