人工智能亦可稱機器智能,通常是指由普通計算機程序來呈現人類智能的技術,其核心問題包括建構能夠跟人類比肩甚至超越人類的推理、知識、規(guī)劃、學習、交流、使用工具和操控機械等能力。隨著人工智能技術的不斷發(fā)展,在大眾對這項技術刷新認識的同時,也產生了諸多的疑問及質疑。
作為中國人工智能的從業(yè)者,希望中國的人工智能發(fā)展成什么樣?就此相關問題,記者對中科院自動化研究所研究員、智源人工智能倫理與安全研究中心主任曾毅進行了專訪。
大眾對人工智能的認識存在偏差
有人曾說,一個不再像人類一樣思維的機器,會引起大家的恐慌。在人工智能發(fā)展的過程當中,有很多人在疑問:人工智能實現通用智能、超級智能,是不是最大的風險?對此,曾毅回答道,在實現通用人工智能的途徑中一定會存在風險,但真正的風險,現在看來并不是通用智能或者超級智能,而是在于人工智能發(fā)展的道路過程當中已經涌現出來的風險以及安全、倫理問題。
對于人工智能這樣由算法專家構建的服務,極可能存在算法歧視、偏見等潛在問題,這些就足以使人工智能對我們的社會產生巨大的負面的影響。比如在人工智能的應用中,數據隱私泄露的問題非常廣泛,用戶可以把數據庫當中的用戶數據刪除,這樣看似用戶數據就被消除掉了,但其實數據庫已經使用了它的數據,數據特征已經被模型學到了,這個時候用戶數據是不可能完全拿回的。曾毅談道,雖然類似歐盟在極力推動的“GDPR歐洲通用數據保護條例”有相關規(guī)定,但目前幾乎沒有一家企業(yè)真正完全符合GDPR,而大眾極度卻缺乏個人數據隱私保護意識。
曾毅表示,公眾很關注人工智能的社會影響,但是礙于大眾對于人工智能的風險不是太了解,所以人工智能技術的科普比任何時候都重要。
面對當前人工智能實際應用的安全問題需建立監(jiān)管平臺
面對人工智能的風險,當下存在嚴重兩極化:比如美國加州就決定禁用人臉識別技術,但也有更多企業(yè)對風險持視而不見的態(tài)度。總體而言,人工智能發(fā)展是主旋律,但是人工智能的健康發(fā)展,一定是治理和發(fā)展雙輪驅動?!爸窃慈斯ぶ悄苎芯吭喊踩珎惱硌芯恐行牟季值闹匾椖烤褪菑募夹g的角度來解決人工智能模型當中存在的風險問題,而不僅僅是停留在倫理原則上的討論?!痹阏f。
此外,曾毅還提出兩點建議:一方面,不管是企業(yè)、科研機構、還是政府,在指導人工智能發(fā)展的時候,應該建立不同層級的人工智能倫理和治理委員會。另外一方面,應該號召國家建立人工智能服務和產品的監(jiān)管平臺?!叭缃竦陌l(fā)展模式是企業(yè)做完產品上線,一旦出了問題,有關部門再去約談,像前一段時間的換臉軟件就是這樣的。如果有監(jiān)管平臺,企業(yè)將用戶知情同意書傳上來,立刻就能發(fā)現其中的哪些原則違反了國家的法律或者是人工智能發(fā)展的原則,就可以在產生社會負面影響之前,規(guī)避掉存在的風險?!?/p>
保持對人工智能發(fā)展的敬畏和理性,是非常關鍵的。曾毅呼吁提升人工智能的技術人員對于風險和倫理問題的重視,使得他們真正在開發(fā)人工智能的時候,心中有紅線;在發(fā)展的方向上保證他們創(chuàng)造的人工智能產品向著對人類有益的方向發(fā)展。