人工智能將會(huì)發(fā)展到無所不能?
掃描二維碼
隨時(shí)隨地手機(jī)看文章
越來越多的人工智能(AI)投入實(shí)際應(yīng)用,包括在線客服、網(wǎng)絡(luò)搜尋、甚至臉書上的訊息呈現(xiàn),背后其實(shí)都是靠強(qiáng)大的算法執(zhí)行。只不過,AI本身的局限性,也將在投入應(yīng)用越來越明顯,這也將是決定AI乃至于人類生活能否持續(xù)進(jìn)步的一大關(guān)鍵。
在AI領(lǐng)域中,引領(lǐng)風(fēng)騷的不只是掌握用戶數(shù)據(jù)、用戶數(shù)量龐大的科技巨人,從生產(chǎn)制造端切入,在某個(gè)特定產(chǎn)業(yè)稱王的也大有人在。日本的Preferred Networks(PFN)就是最好的例子。
2014年創(chuàng)業(yè)的PFN,可以說是不折不扣的新創(chuàng)獨(dú)角獸。他們專精的領(lǐng)域,是把深度學(xué)習(xí)(Deep Learning)技術(shù)導(dǎo)入在產(chǎn)業(yè)應(yīng)用上,目前在三大應(yīng)用領(lǐng)域:運(yùn)輸、制造生產(chǎn)以及醫(yī)療上,都與日本的一級(jí)大廠進(jìn)行合作研發(fā),例如從創(chuàng)業(yè)開始,PFN就與豐田汽車一起投入自駕車技術(shù),去年(2017)七月更與日本國家癌癥中心合作,建構(gòu)癌癥的早期血液診斷系統(tǒng)。
在PFN看來,深度學(xué)習(xí)的本質(zhì),其實(shí)就是建構(gòu)統(tǒng)計(jì)性的預(yù)測(cè)模型。PFN Fellow丸山宏形容,深度學(xué)習(xí)具備大量的參數(shù),經(jīng)過多次的反復(fù)操作后,可以形成任何多維、非線性的函數(shù)系統(tǒng),逼近人類的思考模式,可以大幅提升預(yù)測(cè)的準(zhǔn)確度。
機(jī)器學(xué)習(xí)本質(zhì),不脫統(tǒng)計(jì)歸納分析
這種預(yù)測(cè)模型該如何建立?以國際兩大溫度單位:攝氏(℃)與華氏(℉)的對(duì)應(yīng)關(guān)系為例,從人類的觀點(diǎn)看,因?yàn)橐呀?jīng)有一套標(biāo)準(zhǔn)的換算公式,丸山宏解釋,對(duì)于任何一個(gè)給定的華氏溫度,只要套入公式運(yùn)算,就能得出相對(duì)應(yīng)、即使測(cè)量也不會(huì)出錯(cuò)的攝氏溫度;但對(duì)于機(jī)器來說,如果這套換算公式并不存在,就只能靠長(zhǎng)期觀測(cè)、記錄攝氏與華氏兩套溫度數(shù)據(jù),再對(duì)這些數(shù)據(jù)進(jìn)行分析,慢慢推導(dǎo)出兩者之間的對(duì)應(yīng)關(guān)系(圖1)。
圖1:使用觀測(cè)數(shù)據(jù)進(jìn)行訓(xùn)練,使機(jī)器學(xué)習(xí)溫度單位換算的方法
數(shù)據(jù)源:https://www.slideshare.net/pfi/20171201-dll05-pfnhiroshimaruyama
因?yàn)闄C(jī)器學(xué)習(xí)的對(duì)象只有被給定的參數(shù),不論給定的參數(shù)再多、數(shù)據(jù)的規(guī)模再大,得出的僅是「近似」結(jié)果。丸山宏指出,歸納法的限制之一,就是只能根據(jù)過去的歷史資料預(yù)測(cè)未來;但如果未來出現(xiàn)不可知或根本無法預(yù)測(cè)的意外,任何AI技術(shù)都無法得出對(duì)的結(jié)果。此外,機(jī)器學(xué)習(xí)所處理的參數(shù),多半都被嚴(yán)格定義過,如果此時(shí)出現(xiàn)了與眾不同的參數(shù),也就是訓(xùn)練數(shù)據(jù)中未曾出現(xiàn)的稀有事件,系統(tǒng)對(duì)其也無能為力?!皺C(jī)器學(xué)習(xí)或者AI,還是跟人腦不一樣,”丸山宏指出,“它不會(huì)靈光乍現(xiàn),也不會(huì)進(jìn)行臨機(jī)應(yīng)變的處理,更難以避免偏誤的發(fā)生?!?/p>
技術(shù)面以外,關(guān)于AI另一個(gè)更嚴(yán)肅的議題,可能發(fā)生在應(yīng)用場(chǎng)域上。丸山宏解釋,在自動(dòng)駕駛上,現(xiàn)在PFN的技術(shù),已經(jīng)達(dá)到可以同時(shí)控制多部車輛依其規(guī)劃路線行駛,又不至于出現(xiàn)壅塞?!霸谶@輛紅色汽車上,我們的算法更可以設(shè)定所有車輛一碰到他就得轉(zhuǎn)彎或減速,降低車禍發(fā)生率?!边@套系統(tǒng)明明運(yùn)作地相當(dāng)完美,但丸山宏卻提出另一個(gè)尖銳問題:這輛紅色汽車的“安全系數(shù)”該拉到多高?
AI的應(yīng)用,仍然有其局限性
圖2:Preferred Networks開發(fā)的分布式自動(dòng)駕駛系統(tǒng)
圖片來源:Preferred Networks
他補(bǔ)充,一般人可能認(rèn)為,為了避免發(fā)生危難,安全系數(shù)當(dāng)然越高越好,“可是我們發(fā)現(xiàn),當(dāng)這輛紅色車的安全系數(shù)不斷提高、其他車輛在這個(gè)參數(shù)環(huán)境下不斷學(xué)習(xí)之后,居然都靜止不動(dòng)了!”丸山宏解釋,正因?yàn)槠渌囕v被訓(xùn)練的內(nèi)容是“絕對(duì)不能碰到紅色車”,而只要一開動(dòng)就會(huì)有碰撞的風(fēng)險(xiǎn),所以才出現(xiàn)全部靜止的結(jié)果。只不過,這樣一來交通系統(tǒng)也跟癱瘓無異了。
因?yàn)闄C(jī)器只能在被給定的參數(shù)框架內(nèi)思考,如果人們給予的指令過于簡(jiǎn)化,在實(shí)際生活中恐怕會(huì)出現(xiàn)難以預(yù)料的結(jié)果。他舉例,“好比你今天命令機(jī)器人去星巴克幫你買杯咖啡,如果指令內(nèi)容只是『把咖啡拿過來』,那么機(jī)器人的行動(dòng),可能是到星巴克,把排隊(duì)的其他客人都打開推開甚至殺死,再把咖啡拿給你?!?/p>
AI跟人類一樣并非萬能,類似這樣的“框架問題(Frame Problem)”,是人工智能領(lǐng)域中困擾許久卻尚未解決的問題。隨著這項(xiàng)技術(shù)逐漸被人類社會(huì)所使用,我們一方面固然可以因?yàn)樯罡臃奖愣老?,但更要?jǐn)記的是必須以謹(jǐn)慎、注意的態(tài)度來使用這些科技,才不會(huì)制造更多無解的難題。