佐治亞理工學(xué)院、康奈爾大學(xué)和肯塔基大學(xué)合作開發(fā)了一種AI智能體,可以實(shí)時(shí)自動生成自然語言解釋,以傳達(dá)其行為背后的動機(jī)。這項(xiàng)工作旨在讓人類與AI智能體或機(jī)器人合作,確保智能體正在正確地執(zhí)行任務(wù),并且可以解釋錯(cuò)誤或錯(cuò)誤的行為。
智能體還使用非專家能夠理解的日常語言。這些解釋,或研究人員所稱的“理性”,旨在引起人們的共鳴,并激發(fā)人們對那些可能在工作場中或社交場合中的機(jī)器人的信任。
“由于人工智能遍及我們生活的方方面面,因此非常需要以人為本的人工智能設(shè)計(jì),使日常用戶可以解釋如同黑盒子的人工智能系統(tǒng)。我們需要理解基于語言的解釋的作用以及如何讓人類認(rèn)識到它們?!?/p>
研究人員開展了一項(xiàng)參與者研究,以確定AI智能體能否提供模仿人類反應(yīng)的理論依據(jù)。觀眾觀看智能體玩視頻游戲Frogger,然后根據(jù)每個(gè)人對人工智能游戲動作的描述程度,以描述AI移動的好壞對屏幕上列出的三個(gè)原理進(jìn)行排序。
對于每一步的三個(gè)匿名判斷,包括人類生成的響應(yīng),AI智能體生成的響應(yīng)和隨機(jī)生成的響應(yīng),參與者優(yōu)先選擇人類生成的理論,但AI生成的響應(yīng)緊隨其后。
Frogger為研究人員提供了在“順序決策環(huán)境”中訓(xùn)練AI的機(jī)會,這是一項(xiàng)重大的研究挑戰(zhàn),因?yàn)橹悄荏w已經(jīng)做出的決策會影響未來的決策。因此,研究人員表示,向?qū)<医忉屚评礞準(zhǔn)抢щy的,在與非專家交流時(shí)更是如此。
參與者理解Frogger的目標(biāo)是讓青蛙安全回家,而不會被移動的車輛撞到或在河里淹死。向上,向下,向左或向右移動的簡單游戲機(jī)制允許參與者看到AI正在做什么,并評估屏幕上的基本原理是否清楚地證明了移動的合理性。
參與者根據(jù)以下因素判斷原理:
信心:這個(gè)人對AI執(zhí)行任務(wù)充滿信心
類人的:看起來像是由人類做出決定
充分的理由:充分證明采取的行動是正確的
可理解性:幫助人們理解AI的行為
AI生成的理論,在參與者中排名較高,表現(xiàn)出對環(huán)境條件和適應(yīng)性的認(rèn)可的理論,以及那些傳達(dá)對未來危險(xiǎn)的認(rèn)識并為其規(guī)劃的理論。冗余信息只是陳述了明顯特征或錯(cuò)誤地描述環(huán)境,這會產(chǎn)生負(fù)面影響。
“這個(gè)項(xiàng)目更多的是為了了解人類對這些人工智能系統(tǒng)的認(rèn)知和偏好,而不是建立新技術(shù),”Ehsan表示,“可解釋性的核心是意義建構(gòu)。我們試圖理解這個(gè)人為因素。”
另一項(xiàng)相關(guān)研究證實(shí),研究人員決定設(shè)計(jì)他們的AI智能體,使其能夠提供兩種不同類型的原理中的一種:
簡潔的,專注的
整體的,全貌
在第二項(xiàng)研究中,參與者在觀看AI玩Frogger后才獲得AI生成的原理。他們被要求在人工智能出錯(cuò)的情況下選擇他們更喜歡的答案,他們不知道原理分為兩類。
四分之三的參與者贊成分類為“全貌”類別的答案?;貞?yīng)顯示,人們欣賞人工智能對未來步驟的思考,而不僅僅是思考當(dāng)下的事情,這可能會讓他們更容易犯另一個(gè)錯(cuò)誤。人們也想知道更多,這樣他們就可以直接幫助人工智能糾正錯(cuò)誤行為。
互動計(jì)算教授Mark Riedl表示,“對人工智能機(jī)器人的感知和偏好的理解,為我們提供了一套強(qiáng)大的可操作的見解,可以幫助我們設(shè)計(jì)出更好的以人為本,理性的、自主的智能體?!?/p>
研究的未來可能方向?qū)蜒芯拷Y(jié)果應(yīng)用于各種類型的自主智能體,讓它們根據(jù)手頭的任務(wù)做出反應(yīng),例如它們可以應(yīng)用在緊急響應(yīng)救援,或是在教室?guī)椭處熖幚砣蝿?wù)。