谷歌新的AI工具可以幫助解碼決定一切智能算法
(文章來(lái)源:教育新聞網(wǎng))
雖然大多數(shù)人每天都會(huì)遇到算法,但沒(méi)有多少人可以聲稱(chēng)他們真的了解AI的實(shí)際工作原理。但是,Google推出了一種新工具,希望能夠幫助普通人掌握機(jī)器學(xué)習(xí)的復(fù)雜性。
該功能被稱(chēng)為“可解釋的AI”,它有望按照其名稱(chēng)描述的方式進(jìn)行操作:向用戶解釋機(jī)器學(xué)習(xí)模型如何以及為何得出結(jié)論。為此,解釋工具將量化數(shù)據(jù)集中每個(gè)特征對(duì)算法結(jié)果的貢獻(xiàn)。每個(gè)數(shù)據(jù)因子都有一個(gè)分?jǐn)?shù),反映了它對(duì)機(jī)器學(xué)習(xí)模型的影響程度。
用戶可以拉出該分?jǐn)?shù),以了解給定算法為何做出特定決策。例如,在決定是否批準(zhǔn)某人貸款的模型的情況下,可解釋AI將顯示帳戶余額和信用評(píng)分作為最決定性的數(shù)據(jù)。
谷歌云首席執(zhí)行官托馬斯·庫(kù)里安(Thomas Kurian)在倫敦的Google下次活動(dòng)中介紹了該新功能,他說(shuō):“如果您使用AI進(jìn)行信用評(píng)分,您希望能夠理解為什么該模型拒絕特定模型并接受另一個(gè)模型一?!彼f(shuō):“可解釋的人工智能使您作為在企業(yè)業(yè)務(wù)流程中使用人工智能的客戶,能夠理解為什么人工智能基礎(chǔ)架構(gòu)能夠產(chǎn)生特定的結(jié)果?!?/p>
現(xiàn)在,該解釋工具可以用于托管在Google的AutoML表和Cloud AI Platform Prediction上的機(jī)器學(xué)習(xí)模型。
谷歌此前曾采取措施使算法更加透明。去年,它推出了假設(shè)工具,供開(kāi)發(fā)人員在公司的AI平臺(tái)上工作時(shí)可視化和探查數(shù)據(jù)集。通過(guò)量化數(shù)據(jù)因素,可解釋的AI可以釋放更多的見(jiàn)解,并使這些見(jiàn)解對(duì)更多用戶可讀。Google Cloud戰(zhàn)略主管Tracy Frey說(shuō):“您可以將AI解釋與我們的假設(shè)分析工具配對(duì),以全面了解模型的行為。”
在某些領(lǐng)域,例如醫(yī)療保健,提高AI的透明度將特別有用。例如,在使用算法來(lái)診斷某些疾病的算法中,它將使醫(yī)生可視化模型拾取的癥狀以做出決策,并驗(yàn)證這些癥狀不是假陽(yáng)性或其他疾病的征兆。
? ? ? ?