現(xiàn)在各行各業(yè)都在向AI靠攏,但若論在哪個行業(yè)AI發(fā)展的會更快、更具有潛力,非安防莫屬。以智能監(jiān)控系統(tǒng)為代表的AI安防產(chǎn)品已經(jīng)覆蓋到眾多應用領域,AI技術的應用讓安防行業(yè)嘗到了甜頭。如今,無論是公共安全領域、智能交通、智慧城市、智能樓宇、工廠園區(qū),乃至物流運輸、電力巡檢等都少不了AI安防產(chǎn)品的身影。
不過,AI技術被安防行業(yè)采納不僅是為了更有效地完成當前業(yè)務,這是一個多方面的過程,更重要的是,AI還需要不斷重新評估這些實踐結果,以適應客戶不斷變化的需求。另外,AI技術固然能在擴大監(jiān)控規(guī)模的前提下能夠有效收集情報并充分分析,及時阻止安全事件發(fā)生,也有可能產(chǎn)生一些倫理道德問題。
目前,從很多案例可以看出,有些AI做判斷時存在歧視。例如,美國AI會更偏向中年白人,而預測違法時往往會把黑人和黑人集中區(qū)域當做重點預測對象。我國也有根據(jù)一個人臉部特征與行為舉止來判斷此人是否具有社會威脅性并提醒警方先發(fā)質(zhì)人的AI系統(tǒng)。人類的偏見被機器學習并吸收,這是AI發(fā)展所面臨的一種道德危機。這些表現(xiàn)無疑會使AI受到大量道德譴責。
此外,個人隱私與數(shù)據(jù)保護、AI系統(tǒng)對外部攻擊的防御能力、以及算法透明度等問題也越來越成為AI安防亟需突破的重點問題。
毫無疑問,AI的確需要監(jiān)管,但現(xiàn)在我們還不清楚如何對其進行監(jiān)管。歐盟(EU)近日發(fā)布了一套指南,指導企業(yè)和政府在開發(fā)人工智能時遵循道德準則,旨在解決AI帶來的棘手問題。該指南認為,未來AI系統(tǒng)應該滿足下列7項要求:人道機構的監(jiān)督、技術穩(wěn)健性和安全性、隱私和數(shù)據(jù)治理、算法透明度、多元化非歧視和公平性、環(huán)境和社會福利以及完善的問責制。這份清單為減輕AI的潛在危害提供了一個實用且具前瞻性的視角。
數(shù)字權利組織Access Now的政策經(jīng)理范妮·希德維吉認為:歐盟不應止步于道德準則,因為道德準則只有在法律基礎上才能發(fā)揮更大作用。但是由道德走向法律,必須非常審慎。在此之前,還需要AI技術進一步發(fā)展并更廣泛且深入地應用。
結語:對影響日益擴大乃至滲透人們生活各個方面的AI安防而言,為了使系統(tǒng)發(fā)揮應有的作用,加強監(jiān)視和構建倫理之間必須有一個可以被社會廣泛接受的平衡。如果在采用人工智能技術的過程中包含了日后數(shù)據(jù)收集訓練的方向,那么可能會減少假警報的風險,也可以在AI驅(qū)動的決策中充分體現(xiàn)其公平性,盡量減少其可能對社會產(chǎn)生的負面影響。