網(wǎng)絡(luò)時代,方便了信息的傳播和獲取,也讓謠言和假新聞滿天飛!如何制止這些假新聞和謠言的傳播?這是每一個網(wǎng)絡(luò)管理者或相關(guān)企業(yè)面臨的難題。
近日,谷歌和其他一些科技巨頭包括Facebook和Twitter就如何應(yīng)對虛假新聞的傳播簽署了一項行為準則。
實際上,繼虛假新聞的嚴重性和傳播范圍在2016美國總統(tǒng)大選和英國脫歐公投之后被曝光后,臉書、谷歌和推特等科技和廣告公司一直面臨歐盟立法機構(gòu)和世界各國政府的批評,被要求嚴肅對待虛假新聞的處理問題,防止未來再發(fā)生類似惡意行為。
目前,陸續(xù)有一些國家開始“出手”整治虛假新聞:印度將為全國716個縣配備社交媒體監(jiān)測員,以監(jiān)測印度網(wǎng)上輿情和所有在線內(nèi)容;德國推新法“凈化”社交媒體,若其不及時刪除平臺上的仇恨言論及破壞他人名譽的虛假新聞等非法內(nèi)容,將被處以最高可達5000萬歐元的罰款;埃及國會通過媒體監(jiān)管法案,凡在社交媒體上擁有超過5000名粉絲的賬戶和博客都將受到埃及媒體管理最高委員會的監(jiān)督。若其發(fā)布虛假新聞或有煽動違法等行為,埃及媒體管理最高委員會將有權(quán)暫停和屏蔽個人社交賬戶……
實際上,谷歌和臉書等科技公司也一直在考慮如何將AI技術(shù)應(yīng)用到虛假新聞的打擊中。
使用AI來衡量信息源的質(zhì)量
大多數(shù)情況下,網(wǎng)民并不是直接的虛假新聞的生成者,而更多時候扮演的是傳播者的角色。據(jù)科技媒體Science News報道,全球多個科研團隊已在研發(fā)可自動識別新聞?wù)鎮(zhèn)蔚乃惴?。社交網(wǎng)站可以用這些算法來給新聞做初步檢查,并在用戶打開一篇疑似假新聞時,給用戶發(fā)一個預警提示。
10月4日,麻省理工學院CSAIL(計算機科學與人工智能實驗室)和QRCI(卡塔爾計算研究所)宣布研究出一種可以識別虛假新聞在傳播前的來源和個人政治偏見的AI系統(tǒng)。他們所使用的機器學習算法利用現(xiàn)有文章集合來衡量給定出口的準確性和偏差,該系統(tǒng)或可將不可信賴的新聞信息自動分類。
自2016年以來,F(xiàn)acebook開始嘗試使用“識別虛假新聞”的人工智能工具,并于近期收購了總部位于倫敦的初創(chuàng)公司Bloomsbury AI,以幫助其鑒別消除假新聞。
據(jù)外媒報道,F(xiàn)acebook于3月份推出了Disputed標簽。這個標簽將出現(xiàn)在這個網(wǎng)站上那些被認定為不準確的新聞下面。Facebook使用AI檢查每天在Facebook上分享的數(shù)百萬個鏈接,識別出其中的可疑內(nèi)容,然后將它們發(fā)送給事實核查人員。當事實核查人員將鏈接、圖像或視頻評級為假,F(xiàn)acebook就會減少訪問范圍,降低其在用戶的news feed中的排序位置。
今年4月份以來,谷歌對其搜索引擎背后的算法進行了徹底的調(diào)整,把具備誤導性、虛假在線文章進行排名降級。谷歌還將建立新的規(guī)定,鼓勵1萬多名評估搜索結(jié)果的員工標記出帶有惡作劇、陰謀論或者"低質(zhì)量內(nèi)容"的網(wǎng)頁。
此外,印第安納大學社交體觀察站的研究人員推出了Hoaxy和Botometer兩種程序。Hoaxy是一個搜索引擎,不僅可以展示出Twitter上的即時熱點事件,并追蹤任何在線新聞報道或Twitter標簽,還能推測出事件傳播的用戶中“機器人”的比例。而Botometer是一個打分軟件。他可以根據(jù)Twitter用戶的賬號發(fā)布的信息,觀察這些信息在Twitter上傳播方式和路徑,結(jié)合機器學習算法給每位用戶分配分數(shù),以此來判斷信息是由真人共享,還是由“機器人”所推動。
AI制止假新聞傳播,到底有沒有效?
實際上,互聯(lián)網(wǎng)巨頭在打擊虛假新聞方面可以說是做得越來越好的。去年,百度將自然語言處理、深度學習、圖像識別等AI技術(shù)引入網(wǎng)絡(luò)信息安全治理。全年甄別處理的有害信息總量達到451.2億條,攔截惡意網(wǎng)頁全年總量達202.9億個。
一項來自斯坦福大學、紐約大學和微軟研究院的研究表明,自2016年美國大選到今年7月,F(xiàn)acebook用戶對于假新聞的參與度下降超過了50%。對比之下,Twitter的假新聞比例卻在上升。初步可以證明,AI對虛假新聞的辨別打擊有一定的效果。
哈佛大學約翰肯尼迪政府學院錯誤信息斗爭項目First Draft的負責人Wardle表示,AI的確可以加快某些耗時的步驟。例如,利用AI檢查每天在線發(fā)布的大量內(nèi)容并標記出可能虛假的內(nèi)容。但是,她同樣提出人工智能無法做出最終的判斷。“對于機器來說,你如何編碼“誤導性”呢?即使是人類也難以定義它。生活是混亂、復雜和微妙的,人工智能要做到理解這一點,還有很長的路要走。”
英國帝國理工學院的計算機科學家Julio Amador Diaz Lopez表示,即使目前這些鑒定算法演化得越來越“聰明”,但面對背景較抽象的報道時,程序可能還是無法像人類一樣會意,或辨識其可信度。
人工智能或許還沒有準備好放在真正的內(nèi)容審查系統(tǒng)上。
在Symposium/ITxpo 2017會議上,市場研究公司Gartner預測,到2022年,發(fā)達經(jīng)濟體的大多數(shù)人口"消費"的虛假信息將超過真實信息。Gartner警告稱,雖然人工智能被證明在新信息創(chuàng)建方面非常有效,但在扭曲數(shù)據(jù)創(chuàng)建虛假信息方面,它也很有效。
Gartne還預計,在2020年前,虛假信息會造成重大財務(wù)欺詐事件。2022年,沒有一家大型互聯(lián)網(wǎng)公司在解決這一問題方面能取得完全成功。3年內(nèi),一個主要國家將通過法律法規(guī),遏制人工智能生成的虛假信息的傳播。
俗話說魔高一尺,道高一丈,辦法總會有的,畢竟邪不壓正,期待著在技術(shù)及規(guī)范雙管齊下之下,能還網(wǎng)絡(luò)一個清涼真實的世界。