千名大佬緊急呼吁停止?AI?訓練!OpenAI:GTP-4?已出現(xiàn)無法解釋的推理~
從去年 11 月的 ChatGPT 再到今年的 GPT-4,AI 的成長迅速刷新了人們的認知,每個人應(yīng)該都明白科幻電影遲早會走進現(xiàn)實,只是沒想到這么快而已。
這兩天,以 SpaceX/特斯拉/推特 CEO 馬斯克、圖靈獎得主 Yoshua·Bengio、蘋果聯(lián)合創(chuàng)始人 Steve·Wozniak 等為首的多名業(yè)內(nèi)大佬聯(lián)名叫停訓練所有比 GPT-4 更強大的 AI。
截止發(fā)稿前,該公開信的簽名人數(shù)已經(jīng)達到了 1377 人,其中包含大量業(yè)內(nèi)著名人士,含金量毋庸置疑,而且因為人數(shù)太多,簽名已經(jīng)暫時不更新了。
據(jù)悉,該公開信的目的是要求所有 AI 實驗室立即暫停對比 GPT-4 更強大的 AI 系統(tǒng)的訓練至少 6 個月,以下為聯(lián)名的公開信全文:
全球頂級 AI 實驗室的驗證以及大量的研究表明,擁有人類競爭智慧的 AI 系統(tǒng)可能對社會和人類構(gòu)成深遠的風險。在被廣泛認可的《Asilomar AI》原則中,高級 AI 可能代表地球生命史上的深刻變化,應(yīng)以相應(yīng)的關(guān)懷和資源進行規(guī)劃和管理。不幸的是,這種級別的規(guī)劃和管理并沒有發(fā)生,盡管最近幾個月人工智能實驗室陷入了一場以開發(fā)和部署更強大的數(shù)字思維為目的的失控競賽,沒有人——甚至其創(chuàng)造者都無法理解、預(yù)測或可靠地控制的人工智能。
當代人工智能系統(tǒng)現(xiàn)在在一般任務(wù)上變得與人類具有競爭力,我們必須捫心自問:
我們是否應(yīng)該讓機器用宣傳和謊言充斥我們的信息渠道?
我們應(yīng)該把所有的工作都自動化嗎,包括有成就感的工作?
我們是否應(yīng)該發(fā)展數(shù)量和智慧都最終會超越我們自己的非人類智能嗎?
我們應(yīng)該冒著失去對我們文明控制的風險嗎?
不得將此類決定拋給未經(jīng)選舉產(chǎn)生的技術(shù)領(lǐng)導者,只有當我們確定其影響是積極的并且風險是可控的時候,才應(yīng)該開發(fā)強大的 AI 系統(tǒng),而且這種信心必須有充分的理由,并隨著系統(tǒng)潛在影響的大小而增加。OpenAI 最近關(guān)于通用人工智能的聲明指出,“在某些時候,在開始訓練未來系統(tǒng)之前可能不得不進行重要的獨立審查,并且對于最先進的研究來說,可能要限制用于創(chuàng)建新系統(tǒng)的計算增長率?!? 這個觀點我們同意,某些時候就指的是現(xiàn)在。
因此,我們呼吁所有 AI 實驗室立即暫停至少 6 個月的訓練比 GPT-4 更強大的 AI 系統(tǒng)。這種暫停應(yīng)該是公開的和可驗證的,并且包括所有關(guān)鍵參與者。如果不能迅速實施這種暫停,政府應(yīng)介入并暫停。
AI 實驗室和獨立專家應(yīng)該利用這次暫停的機會,共同開發(fā)和實施一套用于高級人工智能設(shè)計和開發(fā)的共享安全協(xié)議,并由獨立的外部專家進行嚴格審計和監(jiān)督,這些協(xié)議應(yīng)確保其系統(tǒng)是安全的,而且這并不意味著徹底暫停 AI 的開發(fā),只是從危險的競賽中及時抽身到具有可控應(yīng)對機制的正確道路上,而不是在大且不可預(yù)測的黑盒子中亂撞。
人工智能研究和開發(fā)應(yīng)該重新聚焦于使當今強大的、最先進的系統(tǒng)更加準確、安全、可解釋、透明、穩(wěn)健、一致、值得信賴和忠誠。
與此同時,AI 開發(fā)人員必須與政策制定者合作,以顯著加快開發(fā)強大的 AI 治理系統(tǒng)。這些至少應(yīng)包括:
專門負責 AI 的全新且有能力的監(jiān)管機構(gòu);
監(jiān)督和跟蹤強 AI 系統(tǒng)和大量計算的能力;
確定 AI 出處以及水印系統(tǒng),以幫助區(qū)分真實與合成并跟蹤模型泄漏;
強大的審計和認證生態(tài)系統(tǒng);
AI 造成傷害的責任認定和承擔;
為 AI 的安全研究提供強大的公共資金;
資源充足的機構(gòu)來應(yīng)對 AI 將造成的巨大的經(jīng)濟和政治破壞(尤其是民主)。
人類可以享受 AI 帶來的繁榮未來,創(chuàng)建強大的 AI 系統(tǒng)后享受“AI 帶來的夏天”,收獲回報,將這些 AI 系統(tǒng)設(shè)計造福所有人,給社會一個適應(yīng) AI 的機會,而且社會需要評估可能對社會造成災(zāi)難性影響的技術(shù)。讓我們享受一個漫長的 AI 之夏,而不是毫無準備地陷入秋風掃落葉的境地。
但是,另一位圖靈獎得主、Facebook 首席人工智能科學家以及紐約大學教授楊立坤仿佛對此并不認可,而且也公開表明不同意該信件的內(nèi)容并拒絕簽署。
除此之外,普林斯頓大學計算機科學教授 Arvind·Narayanan 認為,這封信本身就進一步炒作了 AI,反而更難解決其帶來的危害,而且重要的是這將會使得未來對 AI 監(jiān)管的公司變成受益方,而不是社會。
據(jù)悉,OpenAI 的 CEO Sam·Altman 目前對此并沒有明確表態(tài),但是我們發(fā)現(xiàn)前不久他在和麻省理工學院的科學家 Lex·Fridman 的一次對話中似乎找到了答案。
“從 ChatGPT 開始,AI 出現(xiàn)了推理能力,但是沒人知道這種能力出現(xiàn)的原因”,Sam·Altman 在采訪中表示,“GPT-4 確實存在應(yīng)對不同價值觀的人的問題?!?
最驚悚的是,Sam·Altman 承認 AI 確實可能殺死人類。其實不止他,馬斯克、比爾蓋茨等均表現(xiàn)出了對 AI 發(fā)展威脅到人類安全性的擔憂。
Sam·Altman 和馬斯克
在本周一的 2023 中國發(fā)展高層論壇上,周鴻祎表示,GPT-4 已經(jīng)屬于真正的強人工智能,已經(jīng)進化出了眼睛和耳朵,未來可能會進化出手和腳,甚至在 GPT-6/GPT-8 將會產(chǎn)生意識而變成新的物種。
最后,人類歷史進程中幾乎所有的新技術(shù)都是一把雙刃劍,既能帶來好處,隨之而來的就是風險,無論是汽車飛機還是核物理的應(yīng)用,今天的 AI 依然如此,這也是有人贊成有人反對的根本原因。
我們先就 AI 談幾個問題:AI 是軟件,是軟件就會有 BUG,這是否會造成嚴重的后果?其次,復(fù)雜系統(tǒng)的行為是高度非線性的,幾乎不可能被完全理解,那么隨著 AI 的不斷訓練和迅速迭代,現(xiàn)階段的管理甚至法律就會出現(xiàn)嚴重的漏洞。
還要面對一系列哲學和倫理問題,比如 AI 作為一個獨立且先進的文化或物種,如何與人類共存等等,起碼確保不會變成終結(jié)者或出現(xiàn)《I, Robot》中的襲擊人類的事情。