2018將迎來(lái)人工智能你不知道的陰暗面
科學(xué)的盡頭即是人類(lèi)的毀滅,任何事物都是矛盾性的,當(dāng)這個(gè)事物強(qiáng)大到不可想象的時(shí)候,任何一點(diǎn)點(diǎn)不利因素都會(huì)帶來(lái)人類(lèi)無(wú)法承受的災(zāi)難,人工智能我認(rèn)為就是計(jì)算機(jī)科學(xué)的盡頭,當(dāng)他有一天不可控時(shí)會(huì)比核彈還要可怕。
我們?cè)谝黄瑢?duì)18歲照片的花樣贊美中,迎來(lái)了又一個(gè)新年。
按說(shuō)新年應(yīng)該是開(kāi)心的時(shí)候,但是剛剛跨年結(jié)束,抬頭一看居然要上班了!不由得悲從心來(lái)……所以今天我們打算說(shuō)點(diǎn)不那么開(kāi)心的事。
最近幾天,各種對(duì)2018年的科技預(yù)測(cè)層出不窮,其中對(duì)AI的暢想占了大頭,內(nèi)容差不多是一片喜慶祥和。
但事有兩來(lái),當(dāng)我們開(kāi)始從AI中收獲價(jià)值的時(shí)候,技術(shù)升級(jí)后帶來(lái)的潛在風(fēng)險(xiǎn)也在升溫。這就像汽車(chē)當(dāng)然好過(guò)牛車(chē),但汽車(chē)也會(huì)帶來(lái)各種各樣的交通事故。我們當(dāng)然不能因此禁止汽車(chē)上路,但是也不能對(duì)交通問(wèn)題視而不見(jiàn)。
今天我們來(lái)預(yù)測(cè)幾個(gè),很可能在2018年進(jìn)入我們眼簾的“人工智能負(fù)能量”。
畢竟做好準(zhǔn)備,是解決問(wèn)題的前提條件。
一、人工智能倫理問(wèn)題開(kāi)始出現(xiàn)個(gè)案2017年1月,在加利福尼亞州阿西洛馬舉行的Beneficial Al會(huì)議上,近千名人工智能相關(guān)領(lǐng)域的專(zhuān)家,聯(lián)合簽署了著名的《阿西洛馬人工智能23條原則》。
隨后,各種關(guān)于人工智能倫理道德的討論、會(huì)議,以及相關(guān)協(xié)會(huì)和科技組織開(kāi)始出現(xiàn)在公眾視野里。
《23條原則》的主要內(nèi)容,就是呼吁人工智能不能損害人類(lèi)的利益和安全,同時(shí)人工智能必須可以被人類(lèi)控制,同時(shí)人類(lèi)要盡量尊重人工智能和機(jī)器人的安全。
聽(tīng)起來(lái)頗有點(diǎn)科幻的味道,但是在各行各業(yè)開(kāi)始部署AI,尤其開(kāi)始利用AI進(jìn)行自動(dòng)化決策的時(shí)候,人工智能的倫理與道德問(wèn)題或許真的會(huì)浮出水面。
比如說(shuō),自動(dòng)駕駛車(chē)輛在馬上要發(fā)生事故時(shí),是優(yōu)先保護(hù)路人還是乘客?假如AI診斷系統(tǒng),給出的建議是安樂(lè)死,那么它算是殺人嗎?為了避免更大損失,AI系統(tǒng)是否能打破規(guī)則,自行其是?
這其中最著名的,大概就是去年谷歌批評(píng)上海交大某團(tuán)隊(duì)進(jìn)行的“看臉定罪犯”研究。引發(fā)了媒體對(duì)于AI價(jià)值觀的大量討論。
在各個(gè)產(chǎn)業(yè)場(chǎng)景開(kāi)始使用AI技術(shù)時(shí),隨之而來(lái)的邊界問(wèn)題、責(zé)權(quán)問(wèn)題、道德選擇問(wèn)題這些在實(shí)驗(yàn)室中不會(huì)出現(xiàn)的矛盾將很可能被引發(fā)。
人類(lèi)還從未真正討論過(guò)這些。假如2018年人工智能的落地化足夠快,倫理問(wèn)題的苗頭或許會(huì)臨近。