可信可用的人工智能是怎樣的
在進博會期間,安永1大中華區(qū)數(shù)字化咨詢服務合伙人吳顯光于安永展臺上以“可信可用的人工智能”為主題為來賓進行了分享,現(xiàn)場觀眾反響熱烈。
我們也在進博會前夕針對這個話題對他進行了專訪,請點擊下方視頻和我們一起看看他分享的獨到觀察。
通過本文。您可以詳細了解到底什么是可信可用的人工智能以及它可以為我們帶來的好處又有哪些?
什么是人工智能?
人工智能(AI)不是一種單一的技術,而是多種方法和工具的集合,它有很多子領域,可被應用于豐富的場景。我們通常會說“實施”技術和“建造”機器人,但是對于人工智能,我們會說,“應用”。
一般來說,人工智能產(chǎn)業(yè)有三個層次,由下至上分別是提供算力的基礎層、提供算法模型的技術層和應用層,其中,數(shù)據(jù)是AI發(fā)展的必備條件。具體來說,基礎層提供的是包含人工智能芯片、傳感器等的計算能力,它決定著完成效率;技術層是依托算法和數(shù)據(jù)開發(fā)出面向不同領域的技術,包括計算機視覺、自然語言處理等;應用層則最貼近我們的日常生活,例如無人機、機器人、自動駕駛等都是常見的應用層用例,是具體的產(chǎn)品、服務或整體解決方案。
可用人工智能
在這場AI競賽中,企業(yè)面臨著挑戰(zhàn)和機遇,同時,多數(shù)人都對AI表達出了較樂觀的態(tài)度。安永在今年三月開展的一項針對美國的CEO和企業(yè)領導者的調(diào)研表明,85%的受訪者對AI持積極態(tài)度,87%的受訪者表示在今年投資了AI項目,
盡管人工智能可以實現(xiàn)的一些目標還有待觀察,但許多企業(yè)正經(jīng)歷其帶來的變革性結果。例如在安永,我們的團隊創(chuàng)建了一個名為EY Document Intelligence的工具,它可以提高讀取海量合同的速度和準確度,使審計團隊能夠更專注于其他價值創(chuàng)造的活動。
由此我們可以窺見一個不爭的事實,人工智能技術正在幫助企業(yè)實現(xiàn)更好的工作方式——技術增強人類創(chuàng)造力,人類能夠騰出時間進行創(chuàng)新——這是一種良好的正向循環(huán)。
同時,根據(jù)最新的IDC Spending Guide,全球人工智能系統(tǒng)支出將在2019年增長至近358億美元,相較于2018年增長44%,隨著各行業(yè)積極投資利用AI軟件能力的項目,這個數(shù)字將在2022年增加至一倍以上。為了在全球范圍內(nèi)展開競爭,創(chuàng)新和充分利用人工智能應該成為全球各行業(yè)幾乎所有企業(yè)的優(yōu)先事項。
可信人工智能
AI是具有顛覆性的技術,其改變世界的潛力是無限的。AI可以改善復雜的決策制訂流程,這使其成為了各個行業(yè)轉型的催化劑。除了可以更有效、更高效地完成繁重且費時的任務外,AI還可以賦予管理團隊前所未有的深刻洞察。但與此同時,AI技術也會催生一系列道德、法律和技術風險,需要企業(yè)妥善處理。
33%的受訪者認為員工信任是AI實施的最大障礙之一,即使受訪者完全或一定程度上信任AI。除此之外,我們發(fā)現(xiàn),技術、風險、人員能力和意識等都成為了人們信任AI實施的主要限制因素,尤其在技術方面,技術的可靠性和性能、技術的安全性和堅固性、技術治理與監(jiān)督、AI應用相關的倫理道德問題都成為了關鍵因素。
現(xiàn)有的外部監(jiān)管機構對AI的控制力度遠遠跟不上AI技術的發(fā)展速度。企業(yè)在沒有強有力的治理下使用AI,會面臨嚴重的風險。這些風險和威脅不僅復雜,還會隨著AI技術的發(fā)展不斷演變。為了確保AI的使用安全,我們提倡在最初的AI設計中就將信任原則嵌入。面對不斷演變的威脅,越早將信任原則嵌入AI中,越能未雨綢繆,在確保AI隱私和安全的前提下收獲最大的回報,使AI技術成為推動企業(yè)未來發(fā)展的強大動力。
對企業(yè)來說,AI既是管理風險的工具,也是產(chǎn)生新風險的來源,需要妥善管理。這些風險不僅會損害對這些系統(tǒng)的信任,還會損害對產(chǎn)品、品譽的信任。因此無論何時采用AI技術,企業(yè)都應該識別各項AI技術應用的風險。
安永的可信的人工智能框架,幫助企業(yè)了解新的和不斷擴大的風險,企業(yè)可以根據(jù)他們在AI產(chǎn)業(yè)鏈中的角色和職責開展治理活動。安永的可信AI框架從性能、無偏、透明、韌性、可解釋五個方面強調(diào)了維持信任所必備的屬性。
要被用戶接受,AI必須是可以被理解的,這意味著AI的決策框架需要可解釋和驗證。它還必須按預期運行,無偏見以及安全。
性能是指,AI的結果與利益相關者的期望一致,且其性能達到期望的精確度和一致性水平。
無偏是指,通過AI設計識別并解決由開發(fā)團隊組成、數(shù)據(jù)和訓練方法產(chǎn)生的固有偏見。AI系統(tǒng)的設計考慮所有受影響的利益相關者的需求,并對社會產(chǎn)生積極影響。
透明是指,給予與AI交互的最終用戶適當?shù)耐ㄖ?,以及選擇交互程度的機會。根據(jù)采集和使用數(shù)據(jù)的要求,獲取用戶同意。
韌性是指,AI系統(tǒng)組件和算法本身使用的數(shù)據(jù)受到安全防護,避免未經(jīng)授權的訪問、損壞和/或對抗性攻擊。
可解釋是指,AI的訓練方法和決策標準可以被理解和記錄,并且可供人類操作者隨時挑戰(zhàn)和驗證。
實際上,AI不是被實施,而是被應用,并且當AI應用在三步創(chuàng)新法中時,將可實現(xiàn)可信AI。所謂“三步創(chuàng)新法”為:有目的的設計、謹慎監(jiān)督和敏捷治理。
有目的的設計是指,在設計和構建系統(tǒng)時有目的地整合并適當平衡自動的、智能的和自主的能力,以促進明確的定義業(yè)務目標的發(fā)展,并考慮環(huán)境、約束、準備程度和風險等。
謹慎監(jiān)督是指,持續(xù)調(diào)整優(yōu)化、關注和監(jiān)控系統(tǒng),以提高性能的可靠性,降低識別和糾正偏差,加強透明度和包容性。
敏捷治理是指,跟蹤社會、監(jiān)管、聲譽和倫理領域暴露的問題,并報告給以下內(nèi)容的流程負責人:系統(tǒng)完整性、系統(tǒng)使用、架構和內(nèi)嵌組件、數(shù)據(jù)采購和管理、模型訓練、監(jiān)控。
安永與華為今年一起合作撰寫了AI治理、安全與隱私白皮書,在這個過程中,我們做了大量的調(diào)研,雖然目前業(yè)界有AI治理原則、框架和指南,但一個企業(yè)具體應該怎么做并沒有明確的指引。我們提出了企業(yè)應從責任的角度出發(fā)來思考自身的AI治理,這對行業(yè)是非常有積極意義的。
AI的產(chǎn)品和應用涉及廣泛的生態(tài)系統(tǒng),涉及的市場參與者眾多,治理難度大、復雜度高。AI的每項產(chǎn)品/服務需要生態(tài)系統(tǒng)中不同市場參與者提供不同層次的支持,因此對AI的安全隱私治理也需要全行業(yè)共同合作,從自身責任的角度出發(fā),根據(jù)企業(yè)自己的AI戰(zhàn)略和業(yè)務范疇確定自己的治理目標和框架。我們根據(jù)業(yè)界現(xiàn)有的一些報告和研究,認為AI生態(tài)系統(tǒng)中共有6種市場參與者,即消費者/客戶、部署者、應用開發(fā)者、解決方案提供者、數(shù)據(jù)收集者和立法者,讓我們從下往上看看每個角色應當承擔的責任。
立法者需要完善AI相關的法律和標準,明確利益相關方的責任。
數(shù)據(jù)收集者需要保障數(shù)據(jù)采集的合法合規(guī),以及數(shù)據(jù)的質(zhì)量和安全等。
全棧解決方案提供者對方案的安全可控承擔主要責任,技術層主要包括預置模型的可解釋和可追溯、隱私保護特性、安全與健壯?;A層主要實現(xiàn)可信解決方案。
應用開發(fā)者需要保障商業(yè)目標實施,在開發(fā)定制模型時需要基于應用目的選擇算法和定制模型,并持續(xù)調(diào)整更新。
部署者需要保障部署目的,并對部署過程中的安全隱私風險進行管控。
消費者/客戶需要遵循產(chǎn)品/服務說明書安全地使用產(chǎn)品和服務,并需要進行一些授權,例如同意隱私條款、簽署授權合同等。
數(shù)據(jù)治理、隱私保護和勝任能力需要各方共同擔責。
可信而可用的人工智能
AI產(chǎn)品應用的廣泛性導致了AI相關的利益方無法單獨對整個生態(tài)系統(tǒng)承擔所有責任,AI全生態(tài)的安全和隱私需要所有利益相關方都能夠重視,把安全和隱私融入AI整個產(chǎn)品生命周期,將安全和隱私納入首要工作標準。
同時,我們也希望AI生態(tài)中的所有企業(yè)都能從責任角度出發(fā),開展自己的工作,并提供寶貴的建議和方案,互相了解、互相借鑒。只有AI產(chǎn)業(yè)鏈上的每個環(huán)節(jié)都做到安全和隱私保護,AI整體才能夠更加可靠可信。
在這里,我們呼吁AI產(chǎn)業(yè)鏈的所有利益相關者能積極為AI治理獻計獻策,共同努力,持續(xù)提升,共享AI裨益!
長按并識別左側二維碼,訪問安永進博會微站,掌握安永進博會最新動態(tài)。
本材料是為提供一般信息的用途編制,并非旨在成為可依賴的會計、稅務或其他專業(yè)意見。請向您的顧問獲取具體意見。