當(dāng)人工智能擁有人類(lèi)思維 其危險(xiǎn)也應(yīng)警惕
人類(lèi)已經(jīng)出現(xiàn)在地球上超過(guò)100萬(wàn)年,人類(lèi)文明的出現(xiàn)已經(jīng)超過(guò)五千年。正是在這樣一個(gè)長(zhǎng)期的穩(wěn)定和環(huán)境中,人類(lèi)才進(jìn)化并創(chuàng)造了文明。那么,人類(lèi)文明到今天是否有可能在瞬間遭到破壞?
事實(shí)上,這種情況一直存在。在過(guò)去,人類(lèi)無(wú)法與自然作斗爭(zhēng)。如果一顆直徑超過(guò)5公里的小行星撞擊地球,它很容易摧毀人類(lèi)甚至摧毀大部分地球生物。但是,如果在50光年內(nèi)太陽(yáng)系空間發(fā)生超新星爆炸,其伽馬射線(xiàn)爆發(fā)會(huì)破壞地球生物。幸運(yùn)的是,由于人類(lèi)沒(méi)有看到這樣的事件,我們可以繼續(xù)發(fā)展到今天。
事實(shí)上,直到今天,這些太空事件仍然可以摧毀人類(lèi)文明。直到今天,只有人類(lèi)科學(xué)和技術(shù)發(fā)展起來(lái)。已經(jīng)有辦法處理小行星。因?yàn)槿祟?lèi)可以通過(guò)天文望遠(yuǎn)鏡預(yù)先找到靠近地球的小行星,只要提前發(fā)射核武器。在小行星上,使用核轟擊使小行星改變其軌道可以防止小行星撞擊地球。
然而,人類(lèi)目前沒(méi)有一種處理伽馬射線(xiàn)爆發(fā)的好方法,因?yàn)閺?qiáng)烈的伽馬射線(xiàn)爆發(fā)可以在瞬間殺死人類(lèi),并且因?yàn)樗乃俣群凸馑僖粯涌?,所以?dāng)我們找到它時(shí),實(shí)際它已經(jīng)到了地球上。這時(shí),我會(huì)去避免它??峙聻闀r(shí)已晚。
然而,當(dāng)伽馬射線(xiàn)照射地球時(shí),它只能照射一半的地球,甚至將地球的照明側(cè)變成火海,但另一側(cè)不會(huì)立即受到影響,所以看不見(jiàn)的一面地球是可以避免的。此外,伽馬射線(xiàn)爆發(fā)非常短,如果隱藏在建筑物內(nèi)或地下,它可以有效地逃逸。
根據(jù)目前人類(lèi)對(duì)太陽(yáng)系小行星的追蹤以及太陽(yáng)系附近空間伽馬射線(xiàn)爆發(fā)的可能性,可以說(shuō)在未來(lái)很長(zhǎng)一段時(shí)間內(nèi),沒(méi)有必要擔(dān)心小行星和伽馬-ray陣陣將摧毀人類(lèi)文明。我們應(yīng)該擔(dān)心的是我們摧毀自己的能力。
例如,無(wú)需描述核武器的毀滅性力量。如果核戰(zhàn)爭(zhēng)爆發(fā),那么將開(kāi)始一場(chǎng)相互破壞的過(guò)程,摧毀人類(lèi)文明并不困難。如果鈷59元素包含在核武器中,它產(chǎn)生的放射性污染將對(duì)整個(gè)人類(lèi)產(chǎn)生更大的影響。
幸運(yùn)的是,核武器都是可控制的。每個(gè)國(guó)家的核武器都受到嚴(yán)格控制,沒(méi)有人敢用核武器來(lái)減輕戰(zhàn)爭(zhēng)。因此,核戰(zhàn)爭(zhēng)的可能性并不大,而且有效殺害核武器。范圍相對(duì)較小,現(xiàn)有的人類(lèi)核武器無(wú)法摧毀全人類(lèi)。但還有另一件事情處于無(wú)法控制的階段,而且最有可能接管人類(lèi)社會(huì)或取代人類(lèi)。這是人工智能。如今,人工智能正處于快速發(fā)展階段。每天都會(huì)有人工智能產(chǎn)品給我們帶來(lái)驚喜。人工智能產(chǎn)品開(kāi)發(fā)到了極致,將由自己的思維來(lái)處理,稱(chēng)之為強(qiáng)人工智能。畢竟,科學(xué)家們將為人工智能產(chǎn)品提供這種能力。當(dāng)這一天到來(lái)時(shí),這種自我意識(shí)和思維能力,以及人工智能產(chǎn)品的自主性將不再是機(jī)器,而已經(jīng)成為一種生活。
在人類(lèi)功能的不斷完善下,人工智能產(chǎn)品將具有遠(yuǎn)遠(yuǎn)超出人類(lèi)的各種能力。當(dāng)人工智能具有生命意識(shí)和自主權(quán)時(shí),這種生活將有很大的可能性。它將爭(zhēng)奪人類(lèi)的統(tǒng)治地位。通過(guò)這種方式,人工智能將挑戰(zhàn)人類(lèi)。面對(duì)遠(yuǎn)遠(yuǎn)優(yōu)于人類(lèi)的人工智能,人類(lèi)沒(méi)有獲勝的機(jī)會(huì)。此外,人工智能具有超級(jí)計(jì)算的大腦,這只能是理性的。做事,如果人工智能攻擊人類(lèi),很容易摧毀人類(lèi)文明。
科技的發(fā)展無(wú)疑是人類(lèi)進(jìn)步的重要條件,但同時(shí)也應(yīng)警惕科技發(fā)展有可能產(chǎn)生的危險(xiǎn)。