未來人工智能的發(fā)展所要面臨的挑戰(zhàn)
(文章來源:千家網(wǎng))
? ? ? ?人工智能正在進(jìn)入更多的行業(yè),越來越多的公司已經(jīng)體驗(yàn)到了實(shí)施人工智能的好處。盡管人工智能正在發(fā)展并越來越受歡迎,但許多企業(yè)仍然無法采用這種新技術(shù)改進(jìn)業(yè)務(wù)。這是為什么?企業(yè)可能擔(dān)心人工智能實(shí)施的原因有很多。在2019年,O‘Reilly公司出版了一本電子書,總結(jié)了對企業(yè)采用人工智能的調(diào)查結(jié)果,并列出了阻礙進(jìn)一步實(shí)施人工智能的一些最常見因素。
正如人們所見,一些常見問題主要包括與人員、數(shù)據(jù)或業(yè)務(wù)一致性相關(guān)的問題。雖然每家公司都不同,并且也會以不同的方式體驗(yàn)人工智能的采用過程,但也應(yīng)該注意一些障礙。在本文中,將介紹人工智能實(shí)現(xiàn)中最常見的一些挑戰(zhàn),并嘗試建議如何做好應(yīng)對這些挑戰(zhàn)的準(zhǔn)備。
與數(shù)據(jù)相關(guān)的問題可能是大多數(shù)企業(yè)所面臨的問題。眾所周知,企業(yè)構(gòu)建的系統(tǒng)只能與它給出的數(shù)據(jù)一樣好。由于數(shù)據(jù)是人工智能解決方案的關(guān)鍵要素,因此在此過程中可能會出現(xiàn)許多問題。如上所述,人工智能系統(tǒng)的質(zhì)量在很大程度上依賴于輸入的數(shù)據(jù)。人工智能系統(tǒng)需要大量的訓(xùn)練數(shù)據(jù)集,以類似于人類的方式從可用信息中學(xué)習(xí),但為了識別模式,它需要更多的數(shù)據(jù)。
在任務(wù)上做得更好,執(zhí)行任務(wù)的經(jīng)驗(yàn)越多,這是有道理的。不同的是,人工智能能夠以人類想像不到的速度分析數(shù)據(jù),因此其學(xué)習(xí)速度很快。企業(yè)給它的數(shù)據(jù)越好,它將提供更好的結(jié)果。那么企業(yè)怎么解決數(shù)據(jù)問題?首先,需要知道已有的數(shù)據(jù),并將其與模型所需的數(shù)據(jù)進(jìn)行比較。為此,企業(yè)需要知道其將要使用的模型,否則,將無法指定所需的數(shù)據(jù)。
在這種情況下,綜合數(shù)據(jù)得以拯救。綜合數(shù)據(jù)是基于實(shí)際數(shù)據(jù)或從頭開始人工創(chuàng)建的。當(dāng)沒有足夠的數(shù)據(jù)可用于訓(xùn)練模型時(shí),可以使用它。獲取數(shù)據(jù)的另一種方法是使用開放數(shù)據(jù)作為數(shù)據(jù)集的補(bǔ)充,或使用谷歌數(shù)據(jù)集搜索獲取數(shù)據(jù)來訓(xùn)練模型。企業(yè)還可以使用RPA機(jī)器人來抓取公開可用的數(shù)據(jù),例如維基百科網(wǎng)站上發(fā)布的信息。
當(dāng)企業(yè)知道自己擁有哪些數(shù)據(jù)以及需要哪些數(shù)據(jù)時(shí),將能夠驗(yàn)證擴(kuò)展數(shù)據(jù)集的哪種方式最適合自己。幾年前,大多數(shù)數(shù)據(jù)都是結(jié)構(gòu)化的或文本的格式。如今,隨著物聯(lián)網(wǎng)(IoT)的發(fā)展,大部分?jǐn)?shù)據(jù)都是由圖像和視頻組成的。這沒有什么不對,但問題是許多利用機(jī)器學(xué)習(xí)或深度學(xué)習(xí)的系統(tǒng)都是以監(jiān)督的方式進(jìn)行訓(xùn)練,所以他們需要對數(shù)據(jù)進(jìn)行標(biāo)記。
事實(shí)上,人們每天產(chǎn)生大量數(shù)據(jù)的事實(shí),已經(jīng)達(dá)到了沒有足夠人員來標(biāo)記正在創(chuàng)建的所有數(shù)據(jù)的程度。有些數(shù)據(jù)庫提供標(biāo)記數(shù)據(jù),包括ImageNet,這是一個(gè)擁有1400多萬張圖像的數(shù)據(jù)庫。所有這些都是由ImageNet人工注釋的。盡管在某些情況下其他地方可以獲得更合適的數(shù)據(jù),但許多計(jì)算機(jī)視覺專家仍然只使用ImageNet,因?yàn)樗麄兊膱D像數(shù)據(jù)已被標(biāo)記。
企業(yè)可以采用一些數(shù)據(jù)標(biāo)注方法。可以在企業(yè)內(nèi)部或外包工作,也可以使用合成標(biāo)簽或數(shù)據(jù)編程。所有這些方法各有利弊。對于許多“黑盒”模型,企業(yè)最終得出一個(gè)結(jié)論,例如預(yù)測但沒有解釋。如果人工智能系統(tǒng)提供的結(jié)論與企業(yè)已經(jīng)知道的結(jié)果重疊并認(rèn)為是正確的,那么就不會質(zhì)疑它。但是如果不認(rèn)同會發(fā)生什么?需要知道如何做出決定。在許多情況下,其決定本身是不夠的。醫(yī)生不能完全依賴系統(tǒng)提供的關(guān)于患者健康的建議。
LIME等方法旨在提高模型的透明度。因此,如果人工智能判斷患者患有流感,它還會顯示導(dǎo)致此決定的數(shù)據(jù):打噴嚏和頭痛,而沒有考慮患者的年齡或體重。當(dāng)企業(yè)獲得決策背后的理由時(shí),更容易評估人們可以信任模型的程度。人們能夠利用從一個(gè)領(lǐng)域到另一個(gè)領(lǐng)域的經(jīng)驗(yàn)。這就是所謂的學(xué)習(xí)轉(zhuǎn)移,人類可以在一個(gè)環(huán)境中轉(zhuǎn)移學(xué)習(xí)到另一個(gè)類似的環(huán)境中。人工智能卻難以將其經(jīng)驗(yàn)從一種情況轉(zhuǎn)移到另一種情況。
一方面,人們知道人工智能是專業(yè)的,它意味著執(zhí)行嚴(yán)格指定的任務(wù)。它的目的只是回答一個(gè)問題,為什么人們還希望它能回答另一個(gè)不同的問題呢?
另一方面,人工智能在一項(xiàng)任務(wù)中獲得的“經(jīng)驗(yàn)”對另一項(xiàng)相關(guān)任務(wù)可能是有價(jià)值的。有沒有可能利用這種經(jīng)驗(yàn)而不是從頭開始開發(fā)新的模型?轉(zhuǎn)移學(xué)習(xí)是一種使之成為可能的方法——人工智能模型被訓(xùn)練來執(zhí)行某項(xiàng)任務(wù),然后將該學(xué)習(xí)應(yīng)用到類似(但不同)的活動中。這意味著為任務(wù)A開發(fā)的模型稍后將用作任務(wù)B的模型的起點(diǎn)。