今日,英國著名物理學(xué)家斯蒂芬·霍金去世,享年76歲。霍金家人聲明:他的勇氣與堅持鼓舞了全世界。
霍金生前曾患上肌肉萎縮性側(cè)索硬化癥,全身癱瘓,不能言語?;艚鸬暮⒆又隆缎l(wèi)報》的聲明中寫道,“他的勇氣、堅持以及他的杰出及幽默鼓舞了世界各地的人”。聲明中寫道,“我們將永遠(yuǎn)懷念他”。
霍金是英國著名的天文物理學(xué)家和宇宙學(xué)家,21歲時就患上了盧伽雷式癥。絕大多數(shù)中國人是在讀了霍金寫的科普著作《時間簡史》后,才知道他的。
世界級頂尖雜志《天文學(xué)》對他有這樣的評價:“當(dāng)20世紀(jì)物理學(xué)的成就被客觀地承認(rèn)時,史蒂芬·霍金的成就將被大書特書地載入科學(xué)史冊。”
霍金的成就就像他研究的黑洞一樣強力,令人傾倒。但是他卻幾次與“諾貝爾”失之交臂。
霍金的成就可以概括為:
第一,奇性定理。愛因斯坦創(chuàng)立的廣義相對論被科學(xué)界公認(rèn)為最美麗的科學(xué)理論。但是霍金和彭羅斯一道證明了廣義相對論是不完備的。
他們指出,如果廣義相對論是普遍有效的,而宇宙間的物質(zhì)分布滿足非常一般的條件,那么宇宙時空中一定存在一些奇點。在奇點處經(jīng)典物理的定律失效。人們通常談?wù)摰钠纥c是宇宙產(chǎn)生元初的大爆炸奇點和黑洞中的奇點。愛因斯坦早先否認(rèn)過奇點的存在,他甚至還寫過論文以論證黑洞(那時還沒有這個生動的稱呼)的不可能性?;艚鸷团砹_斯的奇性定理表明了對引力的量子化是不可避免的。
第二,黑洞理論。人們知道,在經(jīng)典引力論的框架里,黑洞只能吞噬物質(zhì),而不能吐出物質(zhì)。黑洞的表面(視界)猶如地獄的入口,是一個有去無返的單向膜?;艚鹪?jīng)證明視界的面積是非減的。1974年霍金發(fā)表了《黑洞在bao'zha爆炸》一文。
這是20世紀(jì)引力物理在愛因斯坦之后的最偉大論文。在論文中,他把量子理論效應(yīng)引進(jìn)了黑洞研究,證明了從黑洞視界附近會蒸發(fā)出各種粒子,這種粒子的譜猶如來自黑體的輻射。
隨之黑洞質(zhì)量降低,溫度就會升高,最終導(dǎo)致黑洞的爆炸。在這被稱為霍金輻射的場景中,量子理論、引力理論和統(tǒng)計物理得到了完美的統(tǒng)一。黑洞理論是科學(xué)史上非常罕見的例子,它首先在數(shù)學(xué)形式上被詳盡的研究,后來才在天文學(xué)的許多觀測上證實了它的普遍存在?,F(xiàn)在,人們的共識是,每個星系的中心都是一顆極其巨大的黑洞。
第三,無邊界宇宙理論?;艚鹪?0年代初,創(chuàng)立了量子宇宙學(xué)的無邊界學(xué)說。他認(rèn)為,時空是有限而無界的,宇宙不但是自洽的,而且是自足的,它不需要上帝在宇宙初始時的第一推動。宇宙的演化甚至創(chuàng)生都單獨地由物理定律所決定。
這樣就把上帝從宇宙的事物中完全摒除出去。上帝便成了無所事事的“造物主”,它再也無力去創(chuàng)造奇跡。亞里士多德、奧古斯丁、牛頓等人曾在宇宙中為上帝杜撰的那個關(guān)于“第一推動”的神話,完全是虛幻的。
量子宇宙學(xué)的主要預(yù)言之一是關(guān)于宇宙結(jié)構(gòu)的起源。若干年前,宇宙背景輻射探測者對太空背景溫度起伏的觀察證實了這個預(yù)言。
對于奇性定理、黑洞面積定理、黑洞霍金輻射和無邊界宇宙理論,一個人生前擁有其中的任何一項成就,就足以名垂不朽。而霍金卻擁有了這些理論的全部。
對于人工智能,霍金曾表示,AI的崛起可能是人類文明的終結(jié),除非我們學(xué)會如何避免危險。
“我曾經(jīng)說過,人工智能的全方位發(fā)展可能招致人類的滅亡,比如最大化使用智能性自主武器。除非,人工智能系統(tǒng)需要按照人類的意志工作”。
“我認(rèn)為人工智能的發(fā)展,本身是一種存在著問題的趨勢,而這些問題必須在現(xiàn)在和將來得到解決。當(dāng)下還無法判斷人工智能的崛起對人類來說到時是好事還是壞事,但我們應(yīng)該竭盡所能,確保其未來發(fā)展對我們和我們的環(huán)境有利”。
霍金表示,人工智能的研究與開發(fā)正在迅速推進(jìn)。也許我們所有人都應(yīng)該暫停片刻,把我們的研究重復(fù)從提升人工智能能力轉(zhuǎn)移到最大化人工智能的社會效益上面。
人類未來是否會被人工智能代替?霍金表示,人類無法知道我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。我們擔(dān)心聰明的機器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬計的工作崗位。
在2017年全球移動互聯(lián)網(wǎng)大會(GMIC)上,他曾通過視頻發(fā)表了《讓人工智能造福人類及其賴以生存的家園》主題演講。
這已經(jīng)不是霍金第一次提出“人工智能威脅論”。2017年3月,霍金向英國《獨立報》表示,人類必須建立有效機制盡早識別威脅所在,防止新科技(人工智能)對人類帶來的威脅進(jìn)一步上升。
霍金在會上表示,人工智能的威脅分短期和長期兩種。短期威脅包括自動駕駛、智能性自主武器,以及隱私問題;長期擔(dān)憂主要是人工智能系統(tǒng)失控帶來的風(fēng)險,如人工智能系統(tǒng)可能不聽人類指揮。
他還認(rèn)為,生物大腦和計算機在本質(zhì)上是沒有區(qū)別的。這與英國物理學(xué)家羅杰·彭羅斯的觀點恰恰相反,后者認(rèn)為作為一種算法確定性的系統(tǒng),當(dāng)前的電子計算機無法產(chǎn)生智能。
不過,霍金也表示,雖然他對人工智能有各種擔(dān)憂,但他對人工智能技術(shù)本身還是抱有樂觀的態(tài)度。他認(rèn)為人工智能帶來的收益是巨大的,人類或許借助這一強大的工具,可以減少工業(yè)化對自然的傷害。“但我們不確定我們是會被智能無限地幫助,還是被無限地邊緣化,甚至毀滅。”他補充道。
霍金在演講的最后說道:“這是一個美麗但充滿不確定的世界,而你們是先行者。”
讓我們共同緬懷這位人類歷史上偉大的科學(xué)家!