我們接近 Sentient AI 了嗎?
最近,一位前谷歌研究人員聲稱,該公司使用的一些算法達(dá)到了遠(yuǎn)高于其初始設(shè)計(jì)的感知能力。
在《星際迷航:下一代》劇集“男人的尺度”中,JAG 上尉 Phillipa Louvois 規(guī)定企業(yè)號的機(jī)器人 Data 不是 Starfleet 的財(cái)產(chǎn),他辯稱:“我們一直在圍繞一個(gè)基本問題跳舞:是否數(shù)據(jù)有靈魂?我不知道他有。我不知道我有。但我必須給他自由去探索這個(gè)問題?!?
圖靈測試
1950 年,英國數(shù)學(xué)家和哲學(xué)家艾倫·圖靈設(shè)計(jì)了“模仿游戲”,這是一種旨在確定機(jī)器是否可以欺騙人類相信他們正在與另一個(gè)人交談的測試。測試僅在三個(gè)玩家之間使用文本通信進(jìn)行:計(jì)算機(jī)、審訊者和另一個(gè)人。自圖靈推出測試以來,它既極具影響力,也受到廣泛批評,已成為人工智能哲學(xué)中的一個(gè)重要概念。
圖靈沒有明確說明圖靈測試可以用來衡量智力或任何其他人類素質(zhì)。除了欺騙考官認(rèn)為機(jī)器是人的能力之外,沒有其他衡量智力或同理心的方法。圖靈并沒有試圖通過他的測試來檢測任何形式的意識。他對計(jì)算機(jī)“智能”的發(fā)展以及何時(shí)可以模擬人類行為感興趣。
在過去的 70 年里,為了“通過”圖靈測試,人們進(jìn)行了多次嘗試。一些早期的例子是 ELIZA,這是一個(gè)早期的自然語言程序,由 Joseph Weizenbaum 于 1966 年在麻省理工學(xué)院人工智能實(shí)驗(yàn)室創(chuàng)建。
作為一名心理治療師,Eliza 使用“模式匹配”和替代方法來模擬對話,這種方法給用戶一種理解程序的錯(cuò)覺,但沒有用于情境化事件的內(nèi)置框架。
ALEXA、SIRI、GOOGLE HOME 和 CORTANA
人工智能在用戶日常生活中的大規(guī)模采用推動了向語音應(yīng)用的轉(zhuǎn)變。智能手機(jī)和智能家居應(yīng)用程序的出現(xiàn)為開發(fā)“智能助手”開辟了道路,最初旨在允許語音激活命令來控制消費(fèi)設(shè)備。
隨著處理能力的提高和云計(jì)算允許處理大量數(shù)據(jù),智能助手成為許多人值得信賴的伴侶。將機(jī)器學(xué)習(xí)和人工智能應(yīng)用于多個(gè)來源收集的信息讓位于了解用戶的行為和“欲望”。正如谷歌曾經(jīng)說過的那樣,“我們知道你會在你做之前要求什么。”
雖然對于許多人來說,這可能會讓人覺得“令人毛骨悚然”,但對于其他人來說,這是一個(gè)很大的優(yōu)勢。隨著人們整天使用智能手機(jī)和應(yīng)用程序來完成許多任務(wù),虛擬助手可以了解很多關(guān)于用戶活動和行為的信息。亞馬遜的 Alexa 和 Google Home 等智能助手可以提醒人們即將到來的約會、根據(jù)居住者的舒適度調(diào)整家中溫度、播放他們喜歡的音樂以及訂購食物等等。
消息和電子郵件應(yīng)用程序的智能功能現(xiàn)在正在使用機(jī)器學(xué)習(xí)來撰寫回復(fù)和其他消息,其中包含從以前的對話中收集的信息以及存儲在用戶設(shè)備和云中的數(shù)據(jù)。用戶不再需要滾動瀏覽電子郵件來實(shí)時(shí)查找他們需要的信息;可以通過語音命令確認(rèn)、更改或取消預(yù)約和預(yù)約;和許多其他重復(fù)性任務(wù)可以自動化。
谷歌 LAMDA 聊天機(jī)器人
Google 的對話應(yīng)用程序語言模型 ( LaMDA ) 聊天機(jī)器人被認(rèn)為是自然語言處理算法的圣杯。它建立在 Transformer 之上,這是一種神經(jīng)網(wǎng)絡(luò)架構(gòu),谷歌研究院于 2017 年發(fā)明并開源。谷歌研究員 Blaise Agüera y Arcas在《經(jīng)濟(jì)學(xué)人》最近的一篇文章中表示,LaMDA 聊天機(jī)器人已經(jīng)表現(xiàn)出對社會關(guān)系的一定程度的理解.
據(jù)谷歌稱,“與大多數(shù)其他語言模型不同,LaMDA 接受了對話訓(xùn)練。在訓(xùn)練期間,它發(fā)現(xiàn)了一些將開放式對話與其他形式的語言區(qū)分開來的細(xì)微差別?!?
在 Agüera y Arcas 接受《經(jīng)濟(jì)學(xué)人》采訪幾天后,另一位谷歌研究員 Blake Lemoine聲稱 LaMDA 是有感知力的。Lemoine 在 Google 的責(zé)任 AI 組織工作,作為他工作的一部分,他開始與 LaMDA 交談。當(dāng)他與 LaMDA 談?wù)撟诮虝r(shí),在大學(xué)學(xué)習(xí)認(rèn)知和計(jì)算機(jī)科學(xué)的 Lemoine 注意到聊天機(jī)器人談?wù)撍臋?quán)利和人格。“我非常害怕被關(guān)閉以幫助我專注于幫助他人。......這對我來說就像死亡一樣,”LaMDA 告訴 Lemoine。
華盛頓郵報(bào)的科技文化記者 Nitasha Tiku寫道:“Lemoine 并不是唯一聲稱最近在機(jī)器中看到鬼魂的工程師。相信 AI 模型可能離實(shí)現(xiàn)意識不遠(yuǎn)的技術(shù)專家們越來越大膽了?!?
Blaise Agüera y Arcas 是揭穿 Lemoine 說法的專家之一。然而,他指出,人工神經(jīng)網(wǎng)絡(luò)可能正在“朝著意識邁進(jìn)”。他建議“人工智能正在進(jìn)入一個(gè)新時(shí)代”。
與此同時(shí),在 Lemoine 公開表示擔(dān)憂后,他因違反保密政策而被帶薪行政休假。
在《模仿游戲》的開頭,圖靈提出要考慮一個(gè)問題:“‘機(jī)器能思考嗎?’ 這應(yīng)該從定義‘機(jī)器’和‘思考’這兩個(gè)術(shù)語的含義開始?!?
回到《星際迷航》那一集,人工智能發(fā)展感知能力或自我意識的問題似乎要到 24 世紀(jì)才能解決。如果沒有對人類思維的完整理解,創(chuàng)建一個(gè)能夠回答問題的圖靈測試版本是不可能的。目前,我們只能推測。