人工智能(AI)除了自動化和數(shù)據(jù)處理還能做別的嗎?當然,遠不止此。如今AI的一些基礎(chǔ)功能已經(jīng)成熟,因為它變得越來越人性化,我們將見證AI復(fù)雜性的激增。接下來,我們將簡要介紹AI輔助下企業(yè)的現(xiàn)狀和未來前進方向。
趨勢1:超越基礎(chǔ)正如前言,大多數(shù)公司都已經(jīng)采用了AI的一些基本功能,用戶對這些功能很有把握。其中包括個性化(個性化廣告,發(fā)送電子郵件,自動編輯文本等)和推薦(例如在Spotify,Netflix或亞馬遜購物卡等應(yīng)用上看到的那些)和其他營銷技術(shù),是現(xiàn)在幾乎任何規(guī)模的企業(yè)都能使用的開發(fā)服務(wù)型AI。還有許多技術(shù)開始達到高度飽和——最嚴重的是機器人流程自動化(RPA)。我稱其為AI中唾手可得的成果,因為即便它智能,卻也很簡單。它側(cè)重于一次自動化一個流程,而不是整個企業(yè)的垂直流程。RPA為公司節(jié)省了大量的時間和金錢,但尚未達到應(yīng)有規(guī)模。在不久的將來,我們會看到更多的落后者開始采用RPA,而現(xiàn)有用戶尋求優(yōu)化他們已經(jīng)開始使用的流程。
既然我們已經(jīng)掌握了這些基礎(chǔ)功能,就將會看到許多早期使用者進入下一階段。我們可以期待企業(yè)越來越關(guān)注AI和ML驅(qū)動的預(yù)測分析——幫助企業(yè)從數(shù)據(jù)中提取更多價值,尤其從實時信息中;甚至相信它為我們做出決策。我們還將看到對繪制知識圖譜更深入的理解——搞清人工智能如何利用數(shù)據(jù)找到人類可能從未想過的相關(guān)性。
趨勢2:哎。采用AI很難事實是采用AI很困難。許多公司都花了比預(yù)期更多的時間去優(yōu)化AI的使用或建立能處理AI的系統(tǒng)。Pactera Technologies最近的一份報告呼應(yīng)了Gartner之前的發(fā)現(xiàn):85%的AI項目無法兌現(xiàn)其預(yù)期的承諾。另一份來自Dimensional Research的報告發(fā)現(xiàn)10家使用AI和機器學習的機構(gòu)中,有8家表明其項目擱置,其中96%的機構(gòu)說他們在數(shù)據(jù)質(zhì)量、數(shù)據(jù)標注和建立模型置信度方面遇到難題。事實上,即使像IBM、Uber和亞馬遜這樣的高科技巨頭有時由于非常嚴重的AI難題也不得不廢棄總計數(shù)百萬美元的重大項目。成長的痛苦是必要的嗎?未必。到目前為止,關(guān)于創(chuàng)建有影響力的AI項目的要點和雷區(qū)已經(jīng)有了足夠的信息。要避免的幾件大問題:沒有明確的任務(wù)就起步、收集太多數(shù)據(jù)(或不使用、不正確處理)、使用錯誤算法、為了回報等待太久(而不是在工作過程中實時制衡)。
趨勢3:越來越交互式和人性化
技術(shù)專家正在看到強化學習領(lǐng)域的重大進步,借此AI能夠為通過目標導向的行為獲得回報。它開始獲得常識。盡管以一種奇怪的方式,它開始像人類一樣思考,這意味著它也有能力大規(guī)模地剝奪工作(參見我最近關(guān)于首席營銷官的文章以及AI正將他們置于險境的原因)。這就是AI從以人類為主導到類人的分岔口。一些有關(guān)AI已經(jīng)多么先進具體示例在這里得到了很好的概述。
我們也看到AI迅速走向更具交互性質(zhì)。初創(chuàng)公司和技術(shù)領(lǐng)頭羊公司都在競爭發(fā)展聊天機器人,這些聊天機器人不僅能回答問題,而且還具有先進的推理能力。谷歌、微軟、亞馬遜和IBM都想到了他們在交互式AI方面的進步,這些AI將推動更多輪像人類一樣的對話交流,將會話內(nèi)容置于上下文中理解并迅速推斷。
為了看到交互式人工智能成為現(xiàn)實,雖然后臺會有很大的工作量,意味著我們的半導體也必須變得更強。這導致像英特爾這樣的公司構(gòu)建專用芯片用于推理,并開發(fā)他們所謂的DL boost技術(shù),使計算機能夠加快深度學習推理。這個領(lǐng)域和GPU一樣變得越來越具有競爭力,傳統(tǒng)上以其AI培訓能力而聞名的GPU越來越有推力能力。上周NVIDIA公布了一項聲明,該公司展示了GPU如何成為一種有價值的推理工具,以更低的延遲實現(xiàn)更自然、更人性化的對話。
趨勢4: AI倫理仍要打上大大的問號最后,隨著AI確實變得更加人性化,企業(yè)開始意識到使用它會產(chǎn)生嚴重后果——我談得不只是失業(yè)。我們已經(jīng)看到,AI算法可以不經(jīng)意地帶上偏見。例如,用于招募的AI可能“意外地”選擇白人男性作為高度合格人選因為白人男性編寫了算法。這是一個嚴重的問題,特別是對于像IBM這樣的公司,他們不僅僅在招聘中使用AI,還在員工評審中使用。你想要一個機器人評判你的工作表現(xiàn)嗎?確定你是否應(yīng)該加薪?那能有多公平?我們誰能確切地知道嗎?
在未來,我們將看到更多關(guān)注與AI相關(guān)的倫理問題。例如,甲骨文公司創(chuàng)建了倫理委員會來討論公平性、問責制和有關(guān)其所使用算法的透明度等問題。IBM正專注于“可解釋的”AI。微軟制定了使用聊天機器人的責任的指導原則(例如,公司應(yīng)始終提醒客戶他們正在與機器人而不是員工進行交流,并提醒他們注意機器人的局限性)。由于隱私風險,我們看到市民退出AI編程的面部識別之類的項目,而像亞馬遜這樣的公司也因為同樣的原因開始抵制員工監(jiān)控跟蹤器。事實是,我們開始明白人工智能的力量有別于想象中的任何東西?,F(xiàn)在,我們互提取或處理的數(shù)據(jù)類型確實沒有限制。我們必須回答的問題是——應(yīng)該嗎?
展望未來,公司制定規(guī)劃指導其人工智能開發(fā),以及堅持例行審查以確保他們創(chuàng)建的AI仍在回應(yīng)他們、回答它們被設(shè)計去處理的問題變得更為重要。這將伴隨著無休止的辯論,即在哪些方面它增強而非取代人類,如何對其進行監(jiān)管以及查明巨大的倫理困境。人工智能的未來令人興奮,然而與此同時,坐下來享受——這將是一次瘋狂的旅程。