人工智能可能的風(fēng)險怎樣減少
為了在新時代蓬勃發(fā)展,企業(yè)安全需要減少人工智能帶來的風(fēng)險,并充分利用它提供的機會。
人工智能(AI)正在創(chuàng)造信息安全的新領(lǐng)域。能夠獨立學(xué)習(xí)、推理和行動的系統(tǒng)將越來越多地復(fù)制人類的行為。就像人類一樣,他們也會有缺陷,但也有能力取得偉大的成就。
人工智能帶來了新的信息風(fēng)險,并使一些現(xiàn)有風(fēng)險更加危險。但是,它也可以永久使用,并且應(yīng)該成為每個組織防御性武器庫中的關(guān)鍵部分。業(yè)務(wù)和信息安全領(lǐng)導(dǎo)者都必須在接受即將成為日常業(yè)務(wù)中至關(guān)重要的技術(shù)之前,先了解風(fēng)險和機遇。
人工智能已經(jīng)在許多主流業(yè)務(wù)用例中找到了自己的方式。組織使用AI的變體來支持客戶服務(wù),人力資源和銀行欺詐檢測等領(lǐng)域的流程。但是,這種炒作可能導(dǎo)致人們對AI的真正含義及其對業(yè)務(wù)和安全的真正含義感到困惑和懷疑。很難將一廂情愿的想法與現(xiàn)實分開。
人工智能帶來的信息風(fēng)險是什么?
隨著組織采用AI系統(tǒng),它們對于日常業(yè)務(wù)運營將變得越來越重要。一些組織已經(jīng)擁有或?qū)碛型耆蕾嘇I技術(shù)的業(yè)務(wù)模型。無論組織使用了AI的哪些功能,這樣的系統(tǒng)和支持AI的信息都會存在固有的漏洞,并且受到意外和對抗性風(fēng)險的威脅。受損的AI系統(tǒng)將做出錯誤的決策并產(chǎn)生意外的結(jié)果。
同時,組織開始面臨復(fù)雜的基于AI的攻擊,這些攻擊有可能以前所未有的速度和規(guī)模破壞信息并造成嚴重的業(yè)務(wù)影響。采取措施保護內(nèi)部AI系統(tǒng)并防御外部AI威脅,對于降低信息風(fēng)險至關(guān)重要。
盡管組織采用的AI系統(tǒng)提供了誘人的目標,但對抗性攻擊者也開始將AI用于自己的攻擊。AI是一種功能強大的工具,可用來增強攻擊技術(shù),甚至創(chuàng)建全新的攻擊技術(shù)。組織必須準備好調(diào)整防御措施,以應(yīng)對基于AI的網(wǎng)絡(luò)攻擊的規(guī)模和復(fù)雜性。
人工智能提供的防御性機會
安全從業(yè)者總是在努力跟上攻擊者使用的方法,而AI系統(tǒng)至少可以通過顯著增強各種防御機制來提供短期的能力提升。AI可以將大量任務(wù)自動化,幫助人手不足的安全部門填補專業(yè)技能缺口,提高從業(yè)人員的效率。
為了保護自己免受現(xiàn)有威脅,AI可以讓防御者領(lǐng)先一步。然而,對手并不是靜止不動的——隨著支持AI的威脅變得越來越復(fù)雜,安全從業(yè)者將需要使用AI支持的防御來跟上形勢。
在應(yīng)對威脅方面,AI的好處在于,它可以獨立行動,在不需要人類監(jiān)督的情況下采取相應(yīng)措施,而且速度比人類快得多??紤]到惡意軟件的存在幾乎可以在瞬間危害整個系統(tǒng),這是一個非常有價值的能力。
人工智能可以顯著增強防御機制的方式有很多,這為我們提供了樂觀的理由,但與任何一種新技術(shù)一樣,人工智能也不是靈丹妙藥。安全從業(yè)人員應(yīng)該意識到部署防御性AI所涉及的實際挑戰(zhàn)。
在部署防御性AI系統(tǒng)之前,需要考慮的問題和考慮的范圍很窄,而且是為了完成一種任務(wù)而設(shè)計的。他們需要足夠的數(shù)據(jù)和輸入來完成這項任務(wù)。一個單一的防御性AI系統(tǒng)將不能增強之前概述的所有防御機制——一個組織可能采用多個系統(tǒng)。在購買和部署防御性AI系統(tǒng)之前,安全領(lǐng)導(dǎo)應(yīng)該考慮是否需要一個AI系統(tǒng)來解決問題,或者更傳統(tǒng)的選擇是否會起到類似或更好的作用。
要問的問題包括:
●問題有局限嗎?(例如,它是否可以用一個數(shù)據(jù)集或一種輸入類型來處理,或者它是否需要高度理解上下文,通常哪些人更擅長提供?)
●組織是否有運行和優(yōu)化AI系統(tǒng)所需的數(shù)據(jù)?
安全領(lǐng)導(dǎo)者還需要考慮圍繞防御AI的治理問題,比如:
●防御性AI系統(tǒng)如何適應(yīng)組織的安全治理架構(gòu)?
●組織如何為防御AI系統(tǒng)提供安全保障?
●如何維護、備份、測試和修補防御性AI系統(tǒng)?
●組織是否有足夠的技術(shù)人員來為防御AI系統(tǒng)提供監(jiān)督?
人工智能不會用技術(shù)專長和對風(fēng)險的直覺來取代對熟練安全從業(yè)人員的需求。這些安全從業(yè)人員需要在人工監(jiān)視的需要和允許人工智能支持的控制自動有效地工作的信心之間取得平衡。這種信心需要時間來培養(yǎng),尤其是在人工智能被證明不可靠、或做出糟糕或意外決定的故事不斷涌現(xiàn)的情況下。
人工智能系統(tǒng)會犯錯誤,人類監(jiān)督的一個有益方面是,當事情出錯時,從業(yè)人員可以提供反饋,并將其納入人工智能的決策過程。當然,人類也會犯錯,采用防御性AI的組織需要投入時間、培訓(xùn)和支持來幫助安全從業(yè)人員學(xué)習(xí)如何使用智能系統(tǒng)。
如果有時間一起發(fā)展和學(xué)習(xí),人類和AI的結(jié)合應(yīng)該成為組織網(wǎng)絡(luò)防御的一個有價值的組成部分。
現(xiàn)在開始準備:
能夠獨立學(xué)習(xí)、推理和行動的計算機系統(tǒng)預(yù)示著一個充滿風(fēng)險和機遇的新技術(shù)時代的到來。已經(jīng)出現(xiàn)的進展只是冰山一角,未來還將出現(xiàn)更多的進展。AI系統(tǒng)“思考”的速度和規(guī)模將隨著大數(shù)據(jù)訪問的增加、計算能力的增強和編程技術(shù)的不斷改進而提高。這種力量這種權(quán)力將有可能創(chuàng)造和摧毀一家企業(yè)。
可用于防御的AI工具和技術(shù)也可用于犯罪分子、黑客活動分子和政府支持的組織等惡意行為者。這些對手很快就會發(fā)現(xiàn)使用AI來創(chuàng)建諸如智能惡意軟件之類的全新威脅的方法,比如智能惡意軟件。使用傳統(tǒng)控件的安全從業(yè)人員將無法應(yīng)對攻擊的速度、數(shù)量和復(fù)雜性。
為了在新時代蓬勃發(fā)展,組織需要減少AI帶來的風(fēng)險,并充分利用AI提供的機會。這意味著要保護自己的智能系統(tǒng)并部署自己的智能防御。人工智能不再是對遙遠未來的憧憬:現(xiàn)在是開始準備的時候了!