人工智能與未來戰(zhàn)爭有什么聯(lián)系
機器擁有比人類更快速的反應(yīng),更精細的思維。如今,隨著人工智能的發(fā)展,在人類所擅長的邏輯思維上,也大有被機器所超越的可能。而這一超越隨著去年“阿法狗”戰(zhàn)勝世界職業(yè)圍棋頂尖選手李世石成為現(xiàn)實, 這也意味著人工智能在某一方面有了突破性進展。
近日,科技日報報道稱,俄羅斯軍方正在應(yīng)用人工智能和大數(shù)據(jù)技術(shù),測試用軟件代替士兵做出作戰(zhàn)決策,以應(yīng)對迅雷不及掩耳的軍事打擊。更引人注目的是,如果測試成功并投入使用的話,這將極大改變未來戰(zhàn)爭模式。對盛產(chǎn)黑客和數(shù)學(xué)家的“戰(zhàn)斗民族”來說,將機器和程序用于作戰(zhàn)毫不令人意外 。但我們必須注意到,將人工智能應(yīng)用于戰(zhàn)爭始終是人們關(guān)注和爭議的焦點。
而國防科技大學(xué)軍事專家石海明副教授告訴記者,“人類戰(zhàn)爭的歷史,也是人與武器不斷內(nèi)嵌融合的歷史。從冷兵器戰(zhàn)爭到信息化戰(zhàn)爭,武器是人體器官的自然延伸,人與武器的界限尚比較清晰。隨著聚合科技的發(fā)展與應(yīng)用,特別是大數(shù)據(jù)、傳感器、可穿戴設(shè)備、人體植入及基因編輯等人機結(jié)合技術(shù)不斷突破,人與技術(shù)之間的隔閡進一步縮小 ,人與武器之間的傳統(tǒng)界限趨于模糊化,人的‘武器’化及武器的‘人’化趨勢越發(fā)明顯。在智能化戰(zhàn)爭時代,智能化系統(tǒng)應(yīng)該是對人的補充,人工智能更大的價值是介入戰(zhàn)爭協(xié)助作戰(zhàn)指揮和控制?!?/p>
一、智能化戰(zhàn)爭帷幕已漸拉開
“目前看來,盡管信息化戰(zhàn)爭還是主導(dǎo)軍事領(lǐng)域的戰(zhàn)爭形態(tài),但智能化戰(zhàn)爭的帷幕已逐漸拉開?!笔C髦赋?,將人工智能應(yīng)用到作戰(zhàn)上已有先例,層出不窮的武裝機器人系統(tǒng)和應(yīng)用廣泛的無人機就是最明顯的例子。
“在大國角逐的重要空間,表面上看似風(fēng)平浪靜,但各種運用尖端科技的無人化、智能化作戰(zhàn)武器與平臺已越來越多,相關(guān)科學(xué)技術(shù)的軍事應(yīng)用前景值得關(guān)注?!彼f。
例如,海軍專家李杰已指出,曾在多艘美“尼米茲”級核動力航母上成功起降的X-47B察打一體無人機,既具有極強的隱身性,又完全由電腦操控而無需人工干預(yù)。
他表示,“近年來, 由于相關(guān)科技前沿推進極其迅速,人工智能的發(fā)展方向也出現(xiàn)了較大變化,采用大強度計算和數(shù)據(jù)驅(qū)動來發(fā)展智能成為一個探索方向。試想,如果計算機系統(tǒng)能夠基于大數(shù)據(jù)和深度學(xué)習(xí)從根本上提升智能化水平,這對人類社會的未來必將產(chǎn)生較大沖擊。這一進路與以往科學(xué)家‘仿腦’研究不同,過去 試圖模擬人腦的思維過程來打造人工智能,這種傳統(tǒng)進路受腦科學(xué)、計算機科學(xué)等學(xué)科發(fā)展制約而進展緩慢,已有精通的專業(yè)人士指出,‘類腦’研究或許才是未來的發(fā)展方向 。”
對此,李路介紹,“大數(shù)據(jù)方面,目前還未聽說將其用于實戰(zhàn)的官方報道。此外,據(jù)我了解,即使是北約組織的內(nèi)部演習(xí)中,也尚未使用大數(shù)據(jù)技術(shù)進行分析決策。但是在非戰(zhàn)爭軍事行動中,大數(shù)據(jù)技術(shù)早已廣泛使用。尤其是反恐領(lǐng)域,利用大數(shù)據(jù)篩查可疑分子、降低恐襲風(fēng)險已經(jīng)是日常反恐的重要手段?!?/p>
在2013年波士頓馬拉松爆炸案中,恐怖分子以高壓鍋和背包為作案工具展開襲擊。事后,有人在網(wǎng)上同時搜索上述兩種工具,警方立即利用大數(shù)據(jù)技術(shù)捕捉相關(guān)信息,進而調(diào)查搜索者的目的,大大降低了恐襲風(fēng)險。
二、機器尚不能完全替代人類決策
據(jù)俄軍方披露,目前俄海軍某部的專家正在研究前述應(yīng)用程序的效果。有專家認為這一應(yīng)用程序有助于進行獨特的作戰(zhàn)策劃,并能推演現(xiàn)代化海戰(zhàn)武器的使用情況。那么,機器真的可以代替人類做出作戰(zhàn)決策嗎?
李路介紹,“在戰(zhàn)爭指揮和作戰(zhàn)規(guī)劃方面,人工智能不斷取得突破。以前規(guī)劃一次20分鐘的大型空中作戰(zhàn)行動一般需要40-50人耗時12小時,而采用自主技術(shù)之后該規(guī)劃有望在1小時內(nèi)完成?!?/p>
記者了解到,在人工智能介入戰(zhàn)爭指揮方面,DARPA研制的“深綠”系統(tǒng)最為出名。五角大樓試圖仿制曾戰(zhàn)勝人類棋手的超級計算機“深藍”,利用計算機造出一個智能化輔助系統(tǒng),幫助指揮員決策,并隨著作戰(zhàn)進程不斷調(diào)整和改進,使作戰(zhàn)效能大幅提高。但經(jīng)過多年研制后,該項目的主體目前已經(jīng)暫停。
對此,石海明指出,“目前,最需要智能化介入的確實還是在較高層級的指揮控制系統(tǒng)。美軍推出的第三次‘抵消戰(zhàn)略’也認為,以智能化軍隊、自主化裝備和無人化戰(zhàn)爭為標(biāo)志的軍事變革風(fēng)暴正在來臨。未來人與人、物與物、人與物充分互聯(lián)互通之后。此物非彼物,此時的‘物’是人大腦的延伸,智力的延伸,更是智慧的延伸,人類社會進入‘腦聯(lián)網(wǎng)’的智能時代。當(dāng)人機充分實現(xiàn)融合的時候,人類將真正徹底告別作為戰(zhàn)爭終端的慘烈角色,而是作為‘云大腦’的神經(jīng)系統(tǒng)控制者,遠離血雨腥風(fēng)的戰(zhàn)場,安身于舒適的環(huán)境,用自己的智慧與‘云大腦’交互,遙控著前線無人機、無人裝甲車、超級戰(zhàn)士等戰(zhàn)爭主體展開生死搏殺?!?/p>
“軍事系統(tǒng)經(jīng)歷了從‘物質(zhì)系統(tǒng)’‘能量系統(tǒng)’向‘信息系統(tǒng)’的演進,未來將進一步走向‘智慧系統(tǒng)’。當(dāng)然,人工智能倘若要實現(xiàn)較高層級的與作戰(zhàn)系統(tǒng)融合, 必須進一步融合更多的前沿技術(shù)。例如,超級電腦‘沃森’的基于自然語言的知識獲取和統(tǒng)計推理技術(shù),基于貝葉斯方法的復(fù)雜概念建模技術(shù),也包括超級電腦‘深藍’的基于規(guī)則驅(qū)動的暴力搜索技術(shù)等 ?!笔C髡f。
然而,李路認為,“這并不意味著在重要攻擊行動中,機器可以完全替代人類決策。以當(dāng)前的人工智能水平,機器對目標(biāo)和威脅的判斷還相對簡單初級,對臨界點的判斷可靠度難以保證?!?/p>
李路舉例說,2016年6月,英國某潛艇上攜載的一枚三叉戟Ⅱ -D5潛射洲際導(dǎo)彈誤射向美國本土,無奈之下英國將該情況通知美國。美得到消息后卻發(fā)現(xiàn),本應(yīng)自動搜索、自動響應(yīng)的美本土反導(dǎo)系統(tǒng)卻毫無反應(yīng)。好在導(dǎo)彈并未安裝核彈頭,最終在美西部無人區(qū)上空自毀。
“假如當(dāng)時自動反應(yīng)機制及時反應(yīng)并運行了,則理應(yīng)觸發(fā)核報復(fù)機制,美國的核彈將會自動射向英國,后果將不堪設(shè)想。因此,在重大問題上機器替代人做出反擊決策,可能還有較長的路要走?!彼f。
三、人工智能武器化爭議不斷
李路指出,“機器人替代人來執(zhí)行作戰(zhàn)任務(wù)已經(jīng)成為現(xiàn)實。現(xiàn)在的爭論焦點在于,是否允許致命自主武器系統(tǒng)?!?/p>
他介紹,目前國際人道法對此類技術(shù)沒有任何具體規(guī)定,國際社會也未明確支持一個限制或禁止此類武器系統(tǒng)的條約。1949年簽署的戰(zhàn)爭人道主義《日內(nèi)瓦公約》要求任何襲擊需要滿足3個條件“軍事必須、參與戰(zhàn)爭者和非參戰(zhàn)者差別對待、軍事目標(biāo)價值及其潛在附帶傷害的平衡”。當(dāng)前自動武器很難做出這些主觀判斷。學(xué)界對此也爭議不斷,許多重量級科學(xué)家反對人工智能武器化。馬科斯和霍金等人就曾簽署過一封公開信,呼吁禁止自動化武器。他們甚至稱完全人工智能的發(fā)展可能招致人類歷史的終結(jié)。
以無人機為例,美國媒體曾大肆吹捧無人機反恐是“最人道的戰(zhàn)爭形式”,但由于打擊授權(quán)的門檻設(shè)置過低和無人化作戰(zhàn)平臺自身的不可靠性,相關(guān)作戰(zhàn)行動造成了一種事實上的武力濫用行為,導(dǎo)致了大量平民傷亡。
“伴隨著軍事‘智慧系統(tǒng)’的自生成性、自組織性、自演化性不斷發(fā)展,在未來無人化戰(zhàn)爭中,戰(zhàn)爭對壘雙方已不再是用‘能量殺傷’以消滅敵人‘有生力量’,而是通過‘腦’控武器來控制敵人的思想和行動。作戰(zhàn)主體由‘知識戰(zhàn)士’向‘超級戰(zhàn)士’轉(zhuǎn)化,作戰(zhàn)平臺由信息化‘低智’向類腦化‘高智’發(fā)展,作戰(zhàn)樣式由‘體系作戰(zhàn)’向‘開源作戰(zhàn)’演進。到那時, 作戰(zhàn)主體將遠離戰(zhàn)場,機器人會不會像電子游戲一般視生命為草芥,以一種‘非人性化’的方式殺人 ?畢竟,此時的‘超級戰(zhàn)士’已經(jīng)沒有了人類所具有的‘人我共識’情感體驗, ‘隔離因素’將戰(zhàn)爭的發(fā)動者與實施者區(qū)分了開來?!睂Υ?,石海明憂心忡忡,“也正因此,有關(guān)戰(zhàn)爭責(zé)任的倫理問題就出現(xiàn)了,在這樣的條件下,機器人是否要受戰(zhàn)爭倫理的約束呢?參戰(zhàn)的機器人是不是戰(zhàn)斗員?現(xiàn)有的戰(zhàn)爭倫理規(guī)約是否意味著徹底失效?”
石海明介紹,早在2008年,美軍海軍研究辦公室就發(fā)表一份報告認為,運用于戰(zhàn)爭的自主機器人無法承擔(dān)法律責(zé)任。
“以往在科幻電影中,我們常見到各種‘超級戰(zhàn)士’的身影:《機械戰(zhàn)警》中人類頭腦和機械身體完美結(jié)合,身上配備各式武器,能應(yīng)付各種暴力活動的機械警察;《再造戰(zhàn)士》中通過基因設(shè)計工程制造出來的擁有超絕戰(zhàn)斗技巧和力量的超級戰(zhàn)士;《阿凡達》中用人類的基因與當(dāng)?shù)丶{美人基因相結(jié)合,由人類的意識進駐其中得以在這個星球上自由活動的‘化身’。作為作戰(zhàn)鏈條上的信息終端與執(zhí)行終端,未來的機器人能否區(qū)分平民和士兵?倘若不能的話,它們怎么為自己的行為負責(zé)?如果機器人無法承擔(dān)責(zé)任,那么,程序設(shè)計者或后方作戰(zhàn)指揮員誰更應(yīng)是其‘代理人’?不難發(fā)現(xiàn) ,當(dāng)機器戰(zhàn)士或生物戰(zhàn)士全面取代人類主宰戰(zhàn)爭后,高端無人化戰(zhàn)爭也必將引發(fā)一系列倫理困境,這涉及戰(zhàn)爭權(quán)利倫理、戰(zhàn)爭行為倫理及戰(zhàn)爭責(zé)任倫理等多方面,相關(guān)戰(zhàn)爭責(zé)任的追究會變成一個比較棘手的問題?!彼f。
李路也指出,“隨著技術(shù)的發(fā)展,相關(guān)爭論很可能會越來越現(xiàn)實和激烈。但根據(jù)歷史經(jīng)驗來看,人類的理性恐怕很難阻止新技術(shù)軍事化的步伐。軍事領(lǐng)域自主化時代的到來似乎已勢不可擋。”