馬斯克在對AI的看法中表示我們只有10%的機會安全使用人工智能,人工智能會在將來威脅人類,目前所存在的危險和問題還很多,能夠真正控制著AI行業(yè)的人很少很少。
盡管埃隆·馬斯克致力于推動人工智能(AI),但他同時認為,AI非常有可能在未來對人類造成威脅。在接受《滾石》雜志(Rolling Stone)的專訪中,這位科技名人聲稱,關于安全使用AI,我們只有5-10%的成功機會。
前景不太好
埃隆·馬斯克花了很多心思來思考嚴酷的現(xiàn)實和人類無法駕馭AI的可能性。這些思考讓他確信,如果我們要生存下去,就必須與機器合二為一,為此,他甚至創(chuàng)建了一個專門開發(fā)腦機接口(BCI)技術的初創(chuàng)公司,以達成這一目標。但是,盡管他自己的實驗室OpenAI已經能夠實現(xiàn)AI的自我學習功能,但馬斯克日前表示,安全使用AI只有“5-10%的成功幾率”。
《滾石》雜志近期的報道顯示,馬斯克已經與上文提到的BCI初創(chuàng)企業(yè)Neuralink的員工提到了這一微乎其微的可能性。盡管馬斯克積極參與人工智能的開發(fā),但他公開承認,這項技術帶來的不僅是潛在的可能性,而且可能引發(fā)嚴重問題。
安全利用人工智能的挑戰(zhàn)可謂一把雙刃劍。
首先,人工智能的一個(也是OpenAI已經在追求的)主要目標是構建比人類更聰明的AI,它可以在沒有任何人類編程或干擾的前提下獨立學習。但如何實現(xiàn)這種能力,目前還是未知數(shù)。
其次,機器沒有道德、悔恨或情感。未來的人工智能或許能夠區(qū)分“好”和“壞”的行為,但顯然無法具備人類的感覺。
在《滾石》的文章中,馬斯克進一步闡述了人工智能領域目前所存在的危險和問題,其中之一是只有少數(shù)公司在控制著AI行業(yè)。他援引谷歌DeepMind為例來加以說明。
“在Facebook、谷歌和亞馬遜之間,哦,還有蘋果公司,他們似乎很關注隱私——他們對你的了解比你自己還多,”馬斯克說。“權力集中可導致許多風險。所以,如果一般人工智能(AGI)代表權力的極端水平,它應該在毫無監(jiān)督的條件下由谷歌的幾個人來掌控嗎?”
值得冒險嗎?專家們對于馬斯克認為AI不安全的表述看法不一。Facebook的創(chuàng)始人馬克·扎克伯格說,他對人工智能的未來持樂觀態(tài)度,認為馬斯克的警告“相當不負責任”,與此同時,斯蒂芬·霍金(Stephen Hawking)公開發(fā)表聲明,真心認為AI系統(tǒng)對人類構成了足夠的風險,它們可能會完全取代我們。
謝爾蓋·尼科聯(lián)科(Sergey Nikolenko)是俄羅斯一位專門從事機器學習和網絡算法的計算機科學家,最近他分享了對此事的看法。尼科聯(lián)科說,“我覺得我們仍然缺少必要而基本的認識和方法,無法制造出強大的AI,也難以解決AI及其他相關問題。”
至于今天的人工智能,他認為我們沒有什么可擔心的。“我可以打賭,現(xiàn)代神經網絡不會突然醒來,決定推翻人類霸主,”尼科聯(lián)科說。
馬斯克本人可能同意這一觀點,但他的表述看似更側重于如何在我們今天的基礎上創(chuàng)建未來的人工智能。
我們已經有了AI系統(tǒng),能夠構建人工智能系統(tǒng),它們有的可以用自己的語言進行交流,有的天生具有好奇心。盡管今天的奇點技術和機器人的興起還嚴格局限于科幻小說層面,但這些人工智能領域的進步已經讓人們得以一窺真正的未來世界。
但上述擔憂并不足以阻止我們繼續(xù)前行。我們也可以讓AI診斷癌癥,識別自殺行為,協(xié)助制止性交易。
人工智能技術有可能在全球范圍內挽救和改善人們的生活,因此,我們必須考慮如何通過未來的監(jiān)管使人工智能變得安全,馬斯克的警告語畢竟只是一家之言。
連他自己也對《滾石》表示:“我沒有所有問題的答案,我要好好把這件事弄清楚。我正試著構想一套我能采取的行動,以便創(chuàng)造一個美好的未來。如果你有這方面的建議,不妨告訴我。”