霍金去世,享年76歲:世間再無(wú)霍金,時(shí)間永留簡(jiǎn)史
今日,英國(guó)著名物理學(xué)家斯蒂芬·霍金去世,享年76歲?;艚鸺胰寺暶鳎核挠職馀c堅(jiān)持鼓舞了全世界。
霍金生前曾患上肌肉萎縮性側(cè)索硬化癥,全身癱瘓,不能言語(yǔ)?;艚鸬暮⒆又隆缎l(wèi)報(bào)》的聲明中寫(xiě)道,“他的勇氣、堅(jiān)持以及他的杰出及幽默鼓舞了世界各地的人”。聲明中寫(xiě)道,“我們將永遠(yuǎn)懷念他”。
霍金是英國(guó)著名的天文物理學(xué)家和宇宙學(xué)家,21歲時(shí)就患上了盧伽雷式癥。絕大多數(shù)中國(guó)人是在讀了霍金寫(xiě)的科普著作《時(shí)間簡(jiǎn)史》后,才知道他的。
世界級(jí)頂尖雜志《天文學(xué)》對(duì)他有這樣的評(píng)價(jià):“當(dāng)20世紀(jì)物理學(xué)的成就被客觀地承認(rèn)時(shí),史蒂芬·霍金的成就將被大書(shū)特書(shū)地載入科學(xué)史冊(cè)。”
霍金的成就就像他研究的黑洞一樣強(qiáng)力,令人傾倒。但是他卻幾次與“諾貝爾”失之交臂。
霍金的成就可以概括為:
第一,奇性定理。愛(ài)因斯坦創(chuàng)立的廣義相對(duì)論被科學(xué)界公認(rèn)為最美麗的科學(xué)理論。但是霍金和彭羅斯一道證明了廣義相對(duì)論是不完備的。
他們指出,如果廣義相對(duì)論是普遍有效的,而宇宙間的物質(zhì)分布滿足非常一般的條件,那么宇宙時(shí)空中一定存在一些奇點(diǎn)。在奇點(diǎn)處經(jīng)典物理的定律失效。人們通常談?wù)摰钠纥c(diǎn)是宇宙產(chǎn)生元初的大爆炸奇點(diǎn)和黑洞中的奇點(diǎn)。愛(ài)因斯坦早先否認(rèn)過(guò)奇點(diǎn)的存在,他甚至還寫(xiě)過(guò)論文以論證黑洞(那時(shí)還沒(méi)有這個(gè)生動(dòng)的稱呼)的不可能性。霍金和彭羅斯的奇性定理表明了對(duì)引力的量子化是不可避免的。
第二,黑洞理論。人們知道,在經(jīng)典引力論的框架里,黑洞只能吞噬物質(zhì),而不能吐出物質(zhì)。黑洞的表面(視界)猶如地獄的入口,是一個(gè)有去無(wú)返的單向膜。霍金曾經(jīng)證明視界的面積是非減的。1974年霍金發(fā)表了《黑洞在bao'zha爆炸》一文。
這是20世紀(jì)引力物理在愛(ài)因斯坦之后的最偉大論文。在論文中,他把量子理論效應(yīng)引進(jìn)了黑洞研究,證明了從黑洞視界附近會(huì)蒸發(fā)出各種粒子,這種粒子的譜猶如來(lái)自黑體的輻射。
隨之黑洞質(zhì)量降低,溫度就會(huì)升高,最終導(dǎo)致黑洞的爆炸。在這被稱為霍金輻射的場(chǎng)景中,量子理論、引力理論和統(tǒng)計(jì)物理得到了完美的統(tǒng)一。黑洞理論是科學(xué)史上非常罕見(jiàn)的例子,它首先在數(shù)學(xué)形式上被詳盡的研究,后來(lái)才在天文學(xué)的許多觀測(cè)上證實(shí)了它的普遍存在?,F(xiàn)在,人們的共識(shí)是,每個(gè)星系的中心都是一顆極其巨大的黑洞。
第三,無(wú)邊界宇宙理論?;艚鹪?0年代初,創(chuàng)立了量子宇宙學(xué)的無(wú)邊界學(xué)說(shuō)。他認(rèn)為,時(shí)空是有限而無(wú)界的,宇宙不但是自洽的,而且是自足的,它不需要上帝在宇宙初始時(shí)的第一推動(dòng)。宇宙的演化甚至創(chuàng)生都單獨(dú)地由物理定律所決定。
這樣就把上帝從宇宙的事物中完全摒除出去。上帝便成了無(wú)所事事的“造物主”,它再也無(wú)力去創(chuàng)造奇跡。亞里士多德、奧古斯丁、牛頓等人曾在宇宙中為上帝杜撰的那個(gè)關(guān)于“第一推動(dòng)”的神話,完全是虛幻的。
量子宇宙學(xué)的主要預(yù)言之一是關(guān)于宇宙結(jié)構(gòu)的起源。若干年前,宇宙背景輻射探測(cè)者對(duì)太空背景溫度起伏的觀察證實(shí)了這個(gè)預(yù)言。
對(duì)于奇性定理、黑洞面積定理、黑洞霍金輻射和無(wú)邊界宇宙理論,一個(gè)人生前擁有其中的任何一項(xiàng)成就,就足以名垂不朽。而霍金卻擁有了這些理論的全部。
對(duì)于人工智能,霍金曾表示,AI的崛起可能是人類文明的終結(jié),除非我們學(xué)會(huì)如何避免危險(xiǎn)。
“我曾經(jīng)說(shuō)過(guò),人工智能的全方位發(fā)展可能招致人類的滅亡,比如最大化使用智能性自主武器。除非,人工智能系統(tǒng)需要按照人類的意志工作”。
“我認(rèn)為人工智能的發(fā)展,本身是一種存在著問(wèn)題的趨勢(shì),而這些問(wèn)題必須在現(xiàn)在和將來(lái)得到解決。當(dāng)下還無(wú)法判斷人工智能的崛起對(duì)人類來(lái)說(shuō)到時(shí)是好事還是壞事,但我們應(yīng)該竭盡所能,確保其未來(lái)發(fā)展對(duì)我們和我們的環(huán)境有利”。
霍金表示,人工智能的研究與開(kāi)發(fā)正在迅速推進(jìn)。也許我們所有人都應(yīng)該暫停片刻,把我們的研究重復(fù)從提升人工智能能力轉(zhuǎn)移到最大化人工智能的社會(huì)效益上面。
人類未來(lái)是否會(huì)被人工智能代替?霍金表示,人類無(wú)法知道我們將無(wú)限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。我們擔(dān)心聰明的機(jī)器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬(wàn)計(jì)的工作崗位。
在2017年全球移動(dòng)互聯(lián)網(wǎng)大會(huì)(GMIC)上,他曾通過(guò)視頻發(fā)表了《讓人工智能造福人類及其賴以生存的家園》主題演講。
這已經(jīng)不是霍金第一次提出“人工智能威脅論”。2017年3月,霍金向英國(guó)《獨(dú)立報(bào)》表示,人類必須建立有效機(jī)制盡早識(shí)別威脅所在,防止新科技(人工智能)對(duì)人類帶來(lái)的威脅進(jìn)一步上升。
霍金在會(huì)上表示,人工智能的威脅分短期和長(zhǎng)期兩種。短期威脅包括自動(dòng)駕駛、智能性自主武器,以及隱私問(wèn)題;長(zhǎng)期擔(dān)憂主要是人工智能系統(tǒng)失控帶來(lái)的風(fēng)險(xiǎn),如人工智能系統(tǒng)可能不聽(tīng)人類指揮。
他還認(rèn)為,生物大腦和計(jì)算機(jī)在本質(zhì)上是沒(méi)有區(qū)別的。這與英國(guó)物理學(xué)家羅杰·彭羅斯的觀點(diǎn)恰恰相反,后者認(rèn)為作為一種算法確定性的系統(tǒng),當(dāng)前的電子計(jì)算機(jī)無(wú)法產(chǎn)生智能。
不過(guò),霍金也表示,雖然他對(duì)人工智能有各種擔(dān)憂,但他對(duì)人工智能技術(shù)本身還是抱有樂(lè)觀的態(tài)度。他認(rèn)為人工智能帶來(lái)的收益是巨大的,人類或許借助這一強(qiáng)大的工具,可以減少工業(yè)化對(duì)自然的傷害。“但我們不確定我們是會(huì)被智能無(wú)限地幫助,還是被無(wú)限地邊緣化,甚至毀滅。”他補(bǔ)充道。
霍金在演講的最后說(shuō)道:“這是一個(gè)美麗但充滿不確定的世界,而你們是先行者。”
讓我們共同緬懷這位人類歷史上偉大的科學(xué)家!