人工智能發(fā)展的道路上還需要我們不斷的探索
掃描二維碼
隨時(shí)隨地手機(jī)看文章
(文章來源:教育新聞網(wǎng))
可以說人工智能(AI)無處不在。報(bào)紙和雜志上充斥著有關(guān)由于AI和機(jī)器學(xué)習(xí)(ML)技術(shù)而推出的最新進(jìn)展和新項(xiàng)目的文章。在過去的幾年中,似乎所有必要的要素(功能強(qiáng)大,價(jià)格可承受的計(jì)算機(jī)技術(shù),先進(jìn)的算法以及所需的大量數(shù)據(jù))都匯集在一起。我們甚至在消費(fèi)者,企業(yè)和監(jiān)管機(jī)構(gòu)之間都普遍接受這項(xiàng)技術(shù)。據(jù)推測(cè),在未來幾十年中,人工智能可能成為公司乃至整個(gè)國家的最大商業(yè)驅(qū)動(dòng)力。
但是,對(duì)于任何新技術(shù),在設(shè)計(jì)和使用方法上都必須考慮周全。組織還需要確保有人員來管理它,這通常是在急于實(shí)現(xiàn)預(yù)期收益的事后才想到的。在趕上潮流之前,值得退后一步,更仔細(xì)地觀察AI盲點(diǎn)可能在哪里發(fā)展,以及可以采取哪些措施來抵消它們。只有這樣,企業(yè)才能真正利用新技術(shù)(尤其是AI)從長遠(yuǎn)來看為他們帶來的好處,以及它如何改變其業(yè)務(wù)的未來。
隨著AI和ML的發(fā)展步伐加快,同時(shí)對(duì)網(wǎng)絡(luò)犯罪的意識(shí)日益增強(qiáng),組織必須確保他們考慮到任何潛在的責(zé)任。盡管如此,事實(shí)已經(jīng)證明,對(duì)于開發(fā)人員在對(duì)他們的機(jī)器學(xué)習(xí)解決方案進(jìn)行建模時(shí),安全性,隱私和道德是低優(yōu)先級(jí)的問題。
根據(jù)O'Reilly最近在企業(yè)調(diào)查中采用AI的情況,安全性是組織內(nèi)最令人關(guān)注的盲點(diǎn)。實(shí)際上,將近73%的高級(jí)業(yè)務(wù)負(fù)責(zé)人承認(rèn),他們?cè)谀P蜆?gòu)建過程中沒有檢查安全漏洞。此外,超過一半的組織在機(jī)器學(xué)習(xí)開發(fā)過程中也沒有考慮公平,偏見或道德問題。隱私同樣被忽略,只有35%的人在模型構(gòu)建和部署過程中始終將隱私放在首位。
盡管在機(jī)器學(xué)習(xí)開發(fā)中缺乏對(duì)安全性和隱私性關(guān)注的關(guān)注,但是大多數(shù)資源都集中在確保AI項(xiàng)目準(zhǔn)確且成功上。例如,有55%的開發(fā)人員可以緩解意外的結(jié)果或預(yù)測(cè),但仍有很多人仍未離開。此外,有16%的受訪者在開發(fā)過程中根本沒有檢查任何風(fēng)險(xiǎn)。
盡職調(diào)查的缺乏可能是由于眾多內(nèi)部挑戰(zhàn)和因素造成的,但是令人驚訝的是,這個(gè)問題的很大一部分是擁有完成開發(fā)過程中這些關(guān)鍵方面的技能和資源。實(shí)際上,技術(shù)中最長期的技能短缺集中在ML建模和數(shù)據(jù)科學(xué)上。為了在安全,隱私和道德方面取得進(jìn)展,組織迫切需要解決此問題。
去年,人工智能的成熟度和使用率呈指數(shù)增長。但是,仍然存在許多障礙,無法使其達(dá)到臨界質(zhì)量。為了確保AI和ML都能以大眾為代表,并且可以安全地使用它們,組織需要采用某些最佳實(shí)踐。
其中之一是確保構(gòu)建AI模型的技術(shù)人員能夠反映更廣泛的人群。從數(shù)據(jù)集和開發(fā)人員的角度來看,這都可能很困難,尤其是在該技術(shù)處于起步階段時(shí)。這意味著開發(fā)人員必須意識(shí)到與預(yù)期與這些系統(tǒng)進(jìn)行交互的各種用戶相關(guān)的問題,這一點(diǎn)至關(guān)重要。如果我們想創(chuàng)建適合所有人的AI技術(shù)-它們需要代表所有種族和性別。
隨著機(jī)器學(xué)習(xí)不可避免地變得越來越普及,對(duì)于公司而言,采用和超越該技術(shù)將變得越來越重要。機(jī)器學(xué)習(xí),人工智能和數(shù)據(jù)驅(qū)動(dòng)型決策的興起意味著數(shù)據(jù)風(fēng)險(xiǎn)遠(yuǎn)遠(yuǎn)超出了數(shù)據(jù)泄露范圍,現(xiàn)在包括刪除和更改。對(duì)于某些應(yīng)用程序,數(shù)據(jù)完整性可能最終使數(shù)據(jù)機(jī)密性黯然失色。
我們將需要學(xué)習(xí)在不使用AI時(shí)總是有一個(gè)完美答案的前提下生活。這些AI系統(tǒng)從輸入的數(shù)據(jù)中學(xué)習(xí),因此這取決于每個(gè)用例。我們可能永遠(yuǎn)不會(huì)有正確的結(jié)果。沒有準(zhǔn)確的清單來克服這些情況,我們必須學(xué)會(huì)適應(yīng)并提供新的培訓(xùn)和教育平臺(tái)。這些新的培訓(xùn)平臺(tái)對(duì)于使AI成為未來幾年內(nèi)所有種族和性別的代表至關(guān)重要。人才庫只會(huì)增長,但要確保其變得更加多樣化仍然是挑戰(zhàn)。
隨著AI和ML的自動(dòng)化程度越來越高,組織必須投入必要的時(shí)間和資源來確保安全性和道德規(guī)范。為此,企業(yè)需要合適的人才和最佳數(shù)據(jù)。縮小技能差距并重新看待數(shù)據(jù)質(zhì)量應(yīng)該是來年的首要任務(wù)。
? ? ?