如何為人工智能加入安全的基因
大數(shù)據(jù)殺熟、技術(shù)黑箱、算法偏見等專業(yè)名詞,正在隨著人工智能的普及引來人們的關(guān)注。隨著人工智能技術(shù)的快速發(fā)展和廣泛應(yīng)用,技術(shù)倫理問題開始從幕后走到臺前,成為人工智能研究發(fā)展的重要議題。
這段時間,一款AI換臉軟件持續(xù)刷屏。該軟件通過獲取人臉信息,利用人工智能的深度學(xué)習(xí)技術(shù),將影視劇、綜藝節(jié)目片段中明星臉換成用戶的。然而,在滿足了用戶短暫的娛樂心理后,軟件中所設(shè)置的灰色條款引發(fā)了用戶對于自身肖像權(quán)和信息安全的擔(dān)憂。同時,軟件的換臉行為是否對影視劇、綜藝節(jié)目構(gòu)成知識產(chǎn)權(quán)侵權(quán)仍有待商榷。這場討論,進一步促進人們對人工智能技術(shù)未來的反思。
放眼當(dāng)下,借助人工智能,企業(yè)賦予每個用戶的偏好和行為以大量數(shù)據(jù)標(biāo)簽,摸透用戶甚至超過用戶對自己的了解;在社交媒體中,人工智能將觀點相近的內(nèi)容反復(fù)推薦給用戶,逐步加劇偏見強化;通過對海量數(shù)據(jù)的挖掘,不同的消費者購買同一件商品的價格不同,有被“殺熟”之嫌……人工智能技術(shù)的商業(yè)化,帶來了技術(shù)濫用、信息安全等問題??梢哉f,隨著人工智能技術(shù)的飛躍,“智慧大爆發(fā)”帶來的工具倫理性問題一直未被解決,進而造成個人隱私泄露、法律倫理困境。如何確保安全、合理地使用人工智能,亟待整個社會求解。
日前發(fā)布的《人工智能安全與法治導(dǎo)則(2019)》,從算法安全、數(shù)據(jù)安全、知識產(chǎn)權(quán)、社會就業(yè)和法律責(zé)任等五大方面,對人工智能發(fā)展的風(fēng)險提出安全與法治應(yīng)對策略。這是人工智能行業(yè)對于社會訴求的一種積極回應(yīng),也是行業(yè)對于自身技術(shù)發(fā)展安全性的一次深刻思考。也許,技術(shù)的不斷革新可以破解現(xiàn)存的“技術(shù)黑箱”,但人工智能的發(fā)展必須始終堅持的是,把安全性作為其技術(shù)發(fā)展的考量標(biāo)準(zhǔn),把握商業(yè)價值和人文價值的統(tǒng)一,把握市場倫理和技術(shù)倫理的統(tǒng)一。
實現(xiàn)技術(shù)可用、可靠、可知、可控,首先要在人工智能的商業(yè)考量中注入更多的人文關(guān)懷。必須明確的是,利用技術(shù)的主體和收益方應(yīng)是人本身。發(fā)揮技術(shù)優(yōu)勢去彌補行業(yè)短板,理應(yīng)明確人的主體地位,讓人工智能在商業(yè)價值與人文價值中求得平衡。同時,更要讓人工智能處在一個公平、安全的市場倫理下發(fā)展。技術(shù)應(yīng)當(dāng)存在倫理邊界,技術(shù)發(fā)展和市場倫理的底線就是公平和安全。一方面,新的產(chǎn)品和技術(shù)應(yīng)當(dāng)經(jīng)過嚴(yán)格的測試和驗證,確保其性能達到合理預(yù)期;另一方面新技術(shù)的發(fā)展應(yīng)確保數(shù)字網(wǎng)絡(luò)、人身財產(chǎn)以及社會發(fā)展的安全。
智能時代的大幕正在拉開,“人工智能+教育”“人工智能+醫(yī)療”“人工智能+媒體”……不斷打破著各個行業(yè)的發(fā)展瓶頸,重塑著不同產(chǎn)業(yè)的生產(chǎn)模式,更是給人類社會的發(fā)展拓展了更多的智慧空間。為人工智能注入更多的人文與安全基因,才能推動人工智能向安全、可靠、可控的方向發(fā)展。
來源:人民網(wǎng)-人民日報