人工智能在醫(yī)療領(lǐng)域應(yīng)用風(fēng)險很大
雖然醫(yī)學(xué)人工智能是發(fā)展的大趨勢,但目前AI還有很多不成熟的地方,如果大規(guī)模在臨床應(yīng)用的話是很危險的。在資源不足且分布不均的醫(yī)療領(lǐng)域,人們開始把希望寄托在機器上,醫(yī)療成為人工智能(AI)賦能的熱門領(lǐng)域。前瞻產(chǎn)業(yè)研究院數(shù)據(jù)顯示,2017年中國醫(yī)療人工智能市場規(guī)模超過130億元,并有望在2018年達到200億元,醫(yī)療人工智能空間廣闊。但現(xiàn)實情況是,AI進入醫(yī)療領(lǐng)域,頭上有一面穿不透的天花板。
人工智能要一分為二地看待。一方面,從積極的態(tài)度看,醫(yī)學(xué)人工智能目前是發(fā)展大趨勢。大數(shù)據(jù)技術(shù)的發(fā)展使得AI已成為一個行業(yè)發(fā)展的必經(jīng)之路和重要方向。從需求上來說,無論是大醫(yī)院的醫(yī)生,還是基層醫(yī)生,都需要一些輔助用具,都需要一些用以決策的數(shù)據(jù)依據(jù)。按照人的記憶能力,是沒法完成數(shù)字化大規(guī)模運算和大規(guī)模記憶存儲的,這是人腦的局限性,而機器正好彌補了人類的短板。所以在很大程度上,我們對AI有很大的期待,將來在各個領(lǐng)域,AI都會產(chǎn)生重要的作用。但回過頭來說,我們要清醒地看待AI現(xiàn)在發(fā)展的歷程。
目前AI還處在非常初級的階段,有很多不成熟的地方,包括數(shù)據(jù)模型的建立、數(shù)據(jù)的來源以及知識模型和知識標(biāo)準(zhǔn)等,這些方面都很初級。而且,目前都是工程師在建立模型,很少有臨床醫(yī)學(xué)的專家參與這個過程。所以在這個階段,AI還存在很多缺陷和風(fēng)險,如果大規(guī)模臨床應(yīng)用的話是很危險的,因為醫(yī)療是不能出錯的。IT界有個行話叫開著飛機修飛機,但醫(yī)療是不行的,一定得把飛機修好了才能開上去,這是由行業(yè)的特點決定的,醫(yī)療和電商等領(lǐng)域都不太一樣。
現(xiàn)在的AI是基于國際開源的一些公用的模型和算法,所以它局限在我們的語音識別、圖像識別,對于很多其他邏輯數(shù)據(jù)的建立,目前還很難建造一個非常符合臨床醫(yī)學(xué)規(guī)律的數(shù)據(jù)模型。所以,這就需要更多的數(shù)學(xué)家參與到醫(yī)學(xué)AI的開發(fā)中來。我們的醫(yī)學(xué)數(shù)據(jù)模型沒有建立的話,將來AI的應(yīng)用場景就會非常受限,會很膚淺。
所以在目前這個狀態(tài)下,AI用在基層醫(yī)療上是不行的,是一個風(fēng)險所在?;蛟S很多大專家有判斷能力,但是基層醫(yī)生是沒有判斷能力的,你把這樣一個機器給他,他無法判定是采取機器的建議還是拒絕機器的建議,這對診斷疾病來說就會有潛在風(fēng)險。
在AI不太成熟的時候,我們不主張大規(guī)模在醫(yī)療領(lǐng)域推廣,但是我們需要實驗,需要一個局限性的、小范圍的、特定環(huán)境下的實驗,目的是為了幫助AI工程師們?nèi)ソ⒏玫臄?shù)學(xué)模型。
現(xiàn)在AI的整個設(shè)計邏輯還存在短板,它是基于一種完全可控的、可知的、可預(yù)測的數(shù)學(xué)邏輯去建立的模型,換句話說,它是符合現(xiàn)代簡單數(shù)學(xué)邏輯的,比如“1+1=2”的這種。但我們的臨床疾病很多情況下不是如此清楚的數(shù)學(xué)邏輯,它是因果關(guān)系,其中會涉及很多潛在的干擾因素,還有未知因素,所以目前建立起來的AI模型還無法模擬臨床上的這種因果關(guān)系。簡單一句話就是,目前的AI不具備邏輯推理能力,因為人還不知道自己的邏輯推理是怎么算出來的。
從生物學(xué)上來說,我們對人的這些跳躍性思維還不完全掌握,我們看到科學(xué)界有很多報告也對AI的一些優(yōu)點和弊端做了相關(guān)鑒定。一方面,AI具備大規(guī)模的運算能力、存儲能力、深度搜索能力以及快速學(xué)習(xí)能力。它目前解決的包括精確控制和遠程操控,都是勞動密集型問題,也就是重復(fù)性的、簡單邏輯很明確的工作關(guān)系。但是對臨床診斷來說,它需要邏輯推理能力,這是AI的短板。所以目前整個AI的運用還有很大風(fēng)險。
從思維方式上來說,積極的深度學(xué)習(xí)是一個連續(xù)性的學(xué)習(xí),我們在人腦上叫連續(xù)性思維,但目前機器無法做到的是跳躍性思維。比如,我們?nèi)祟愑袀€事情解決不了,睡了一覺后,第二天早上突然靈光一現(xiàn),找到了解決方案,這種跳躍性思維目前從生理學(xué)上是怎么誕生的,我們并不知道,這是腦科學(xué)還沒有解決的問題,所以無法用機器去模擬這種跳躍性思維,這時候就無法完成邏輯推理層面上的治病過程。
從AI發(fā)展的技術(shù)上來說,技術(shù)本身存在很多缺陷,比如說魯棒性的問題。魯棒性是系統(tǒng)面臨決策產(chǎn)生的干擾因素時表現(xiàn)出來的穩(wěn)健性。人在判斷錯誤的時候會有一些其他因素來補償,人會及時終止自己的邏輯,會有一些潛意識的反應(yīng)去防范一些惡性問題的發(fā)生。所以科學(xué)界說,人的魯棒性是好的,后果不是很嚴重。但機器的魯棒性是差的,它出現(xiàn)錯誤時自己都不知道是錯的,會繼續(xù)錯下去,帶來的后果很嚴重,因為它沒有修正的過程。所以我們目前對AI的認識必須要看到背后的風(fēng)險。