人工智能道德問(wèn)題為何如此的重要
許多專家認(rèn)為人工智能(AI)可能會(huì)導(dǎo)致世界末日——只不過(guò)不是好萊塢電影讓我們相信的那樣。例如,電影情節(jié)中,機(jī)器人的智力會(huì)不斷增長(zhǎng),直到它們?nèi)〈祟悺,F(xiàn)實(shí)遠(yuǎn)沒(méi)有那么戲劇化,但可能會(huì)帶來(lái)一些不可思議的文化轉(zhuǎn)變。
去年,埃隆·馬斯克,史蒂芬·霍金和比爾·蓋茨等行業(yè)領(lǐng)軍人物致信在阿根廷召開(kāi)的國(guó)際聯(lián)合會(huì)議,稱成功采用人工智能可能是人類取得的最大成就之一,或許也是人類歷史上的最后一次成就。他們指出,人工智能帶來(lái)了獨(dú)特的倫理困境,如果不加以認(rèn)真考慮的話,它可能會(huì)比核能更危險(xiǎn)。
我們?cè)鯓硬拍茉谥覍?shí)于我們的道德義務(wù)的同時(shí),實(shí)現(xiàn)人工智能技術(shù)?這個(gè)解決方案需要系統(tǒng)的努力。
建立倫理委員會(huì)
透明度是有效整合人工智能的關(guān)鍵。企業(yè)可能錯(cuò)誤地認(rèn)為道德只是緩解風(fēng)險(xiǎn)的一種行為。這種心態(tài)只會(huì)讓創(chuàng)新陷入僵局。
創(chuàng)建一個(gè)公司道德委員會(huì),從一開(kāi)始就與你的股東一起決定哪些行為是道德的,哪些不是。將這一道德準(zhǔn)則與你的商業(yè)文化價(jià)值觀結(jié)合起來(lái),在增加公眾信任的同時(shí),創(chuàng)造創(chuàng)新的產(chǎn)品。一個(gè)道德委員會(huì)成員應(yīng)該參與所有新產(chǎn)品的設(shè)計(jì)和開(kāi)發(fā)階段,包括任何包含人工智能的產(chǎn)品。誠(chéng)信是一個(gè)組織的基矗因此,你的道德觀念必須是積極主動(dòng)的,而不是被動(dòng)的。
追求“安全”的創(chuàng)新
一個(gè)堅(jiān)實(shí)的道德基礎(chǔ)會(huì)帶來(lái)好的商業(yè)決策。例如,開(kāi)發(fā)一款產(chǎn)品,后來(lái)你發(fā)現(xiàn)它會(huì)對(duì)整個(gè)行業(yè)產(chǎn)生負(fù)面影響,這是沒(méi)有意義的。從一開(kāi)始就運(yùn)用你的道德準(zhǔn)則,你就能在明智地分配資源的同時(shí)創(chuàng)造積極的影響。
然而,一個(gè)道德委員會(huì)不是去告訴設(shè)計(jì)和開(kāi)發(fā)團(tuán)隊(duì)他們能做什么和不能做什么。相反,該委員會(huì)應(yīng)當(dāng)鼓勵(lì)團(tuán)隊(duì)在不侵犯公司文化價(jià)值觀的前提下進(jìn)行創(chuàng)新??梢园阉醋魇且粋€(gè)重要的制衡體系;一個(gè)部門(mén)可能會(huì)如此專注于一項(xiàng)新創(chuàng)新的潛力,以至于部門(mén)成員從來(lái)不會(huì)停下來(lái)考慮更大的后果。一個(gè)道德委員會(huì)可以根據(jù)令人興奮的新進(jìn)展來(lái)保護(hù)你的商業(yè)誠(chéng)信,這些新進(jìn)展有可能徹底重塑你的組織。
人工智能仍然是一個(gè)相對(duì)較新的概念,所以有可能做一些合法但不道德的事情。道德對(duì)話不僅僅是團(tuán)隊(duì)成員遵循的清單。他們需要對(duì)新產(chǎn)品和公司的意圖提出尖銳的問(wèn)題和反剩這種“蘇格拉底式的方法”需要時(shí)間,可能會(huì)在團(tuán)隊(duì)成員之間制造緊張氛圍——但這是值得的。
創(chuàng)建一個(gè)堅(jiān)實(shí)的基礎(chǔ)
不知道從哪里開(kāi)始你的道德準(zhǔn)則?首先閱讀斯坦福大學(xué)“《百年人工智能研究》。這份報(bào)告以五年為時(shí)間跨度,回顧了人工智能對(duì)文化的影響,從人工智能的創(chuàng)新角度,展望了未來(lái)社會(huì)的機(jī)遇和挑戰(zhàn),并展望了未來(lái)的變化。它的目的是指導(dǎo)決策和制定政策,以確保人工智能造福人類。
把這份報(bào)告作為你的人工智能計(jì)劃的一個(gè)有見(jiàn)地的框架。其他倫理框架的基本要素包括:
· 監(jiān)督保障。你的公司道德是一種協(xié)作的努力。因此,你的道德委員會(huì)應(yīng)該有一系列的制衡機(jī)制。
· 風(fēng)險(xiǎn)評(píng)估標(biāo)準(zhǔn)。每項(xiàng)創(chuàng)新都應(yīng)滿足基本要求,以確保降低風(fēng)險(xiǎn)。這些要求應(yīng)該來(lái)自于你的道德委員會(huì)、開(kāi)發(fā)人員、設(shè)計(jì)團(tuán)隊(duì)、高管層和利益相關(guān)者之間的討論。
選擇自治,而不是規(guī)則
科技行業(yè)擔(dān)心的一個(gè)問(wèn)題是,自我監(jiān)管的失敗只會(huì)導(dǎo)致外部監(jiān)管。斯坦福大學(xué)的報(bào)告認(rèn)為,要對(duì)人工智能進(jìn)行充分監(jiān)管是不可能的。風(fēng)險(xiǎn)和機(jī)會(huì)因范圍和領(lǐng)域而異。盡管科技行業(yè)對(duì)監(jiān)管的理念不以為意,但斯坦福大學(xué)的報(bào)告顯示,各級(jí)政府都應(yīng)該更清楚地認(rèn)識(shí)到人工智能的潛力。
一個(gè)科技行業(yè)領(lǐng)袖委員會(huì)計(jì)劃在本月召開(kāi)會(huì)議,討論人工智能的倫理問(wèn)題,以及為企業(yè)制定一個(gè)大規(guī)模最佳實(shí)踐指南的可能性。希望?這種討論將產(chǎn)生自省,從而導(dǎo)致所有的人工智能公司都做出道德決策,使社會(huì)受益。這一過(guò)程需要時(shí)間,而科技公司的競(jìng)爭(zhēng)是出了名的。但在這一點(diǎn)上,我們一致同意:這是值得付出努力的。