雖然醫(yī)學人工智能是發(fā)展的大趨勢,但目前AI還有很多不成熟的地方,如果大規(guī)模在臨床應用的話是很危險的。在資源不足且分布不均的醫(yī)療領域,人們開始把希望寄托在機器上,醫(yī)療成為人工智能(AI)賦能的熱門領域。前瞻產業(yè)研究院數(shù)據(jù)顯示,2017年中國醫(yī)療人工智能市場規(guī)模超過130億元,并有望在2018年達到200億元,醫(yī)療人工智能空間廣闊。但現(xiàn)實情況是,AI進入醫(yī)療領域,頭上有一面穿不透的天花板。
人工智能要一分為二地看待。一方面,從積極的態(tài)度看,醫(yī)學人工智能目前是發(fā)展大趨勢。大數(shù)據(jù)技術的發(fā)展使得AI已成為一個行業(yè)發(fā)展的必經(jīng)之路和重要方向。從需求上來說,無論是大醫(yī)院的醫(yī)生,還是基層醫(yī)生,都需要一些輔助用具,都需要一些用以決策的數(shù)據(jù)依據(jù)。按照人的記憶能力,是沒法完成數(shù)字化大規(guī)模運算和大規(guī)模記憶存儲的,這是人腦的局限性,而機器正好彌補了人類的短板。所以在很大程度上,我們對AI有很大的期待,將來在各個領域,AI都會產生重要的作用。但回過頭來說,我們要清醒地看待AI現(xiàn)在發(fā)展的歷程。
目前AI還處在非常初級的階段,有很多不成熟的地方,包括數(shù)據(jù)模型的建立、數(shù)據(jù)的來源以及知識模型和知識標準等,這些方面都很初級。而且,目前都是工程師在建立模型,很少有臨床醫(yī)學的專家參與這個過程。所以在這個階段,AI還存在很多缺陷和風險,如果大規(guī)模臨床應用的話是很危險的,因為醫(yī)療是不能出錯的。IT界有個行話叫開著飛機修飛機,但醫(yī)療是不行的,一定得把飛機修好了才能開上去,這是由行業(yè)的特點決定的,醫(yī)療和電商等領域都不太一樣。
現(xiàn)在的AI是基于國際開源的一些公用的模型和算法,所以它局限在我們的語音識別、圖像識別,對于很多其他邏輯數(shù)據(jù)的建立,目前還很難建造一個非常符合臨床醫(yī)學規(guī)律的數(shù)據(jù)模型。所以,這就需要更多的數(shù)學家參與到醫(yī)學AI的開發(fā)中來。我們的醫(yī)學數(shù)據(jù)模型沒有建立的話,將來AI的應用場景就會非常受限,會很膚淺。
所以在目前這個狀態(tài)下,AI用在基層醫(yī)療上是不行的,是一個風險所在?;蛟S很多大專家有判斷能力,但是基層醫(yī)生是沒有判斷能力的,你把這樣一個機器給他,他無法判定是采取機器的建議還是拒絕機器的建議,這對診斷疾病來說就會有潛在風險。
在AI不太成熟的時候,我們不主張大規(guī)模在醫(yī)療領域推廣,但是我們需要實驗,需要一個局限性的、小范圍的、特定環(huán)境下的實驗,目的是為了幫助AI工程師們去建立更好的數(shù)學模型。
現(xiàn)在AI的整個設計邏輯還存在短板,它是基于一種完全可控的、可知的、可預測的數(shù)學邏輯去建立的模型,換句話說,它是符合現(xiàn)代簡單數(shù)學邏輯的,比如“1+1=2”的這種。但我們的臨床疾病很多情況下不是如此清楚的數(shù)學邏輯,它是因果關系,其中會涉及很多潛在的干擾因素,還有未知因素,所以目前建立起來的AI模型還無法模擬臨床上的這種因果關系。簡單一句話就是,目前的AI不具備邏輯推理能力,因為人還不知道自己的邏輯推理是怎么算出來的。
從生物學上來說,我們對人的這些跳躍性思維還不完全掌握,我們看到科學界有很多報告也對AI的一些優(yōu)點和弊端做了相關鑒定。一方面,AI具備大規(guī)模的運算能力、存儲能力、深度搜索能力以及快速學習能力。它目前解決的包括精確控制和遠程操控,都是勞動密集型問題,也就是重復性的、簡單邏輯很明確的工作關系。但是對臨床診斷來說,它需要邏輯推理能力,這是AI的短板。所以目前整個AI的運用還有很大風險。
從思維方式上來說,積極的深度學習是一個連續(xù)性的學習,我們在人腦上叫連續(xù)性思維,但目前機器無法做到的是跳躍性思維。比如,我們人類有個事情解決不了,睡了一覺后,第二天早上突然靈光一現(xiàn),找到了解決方案,這種跳躍性思維目前從生理學上是怎么誕生的,我們并不知道,這是腦科學還沒有解決的問題,所以無法用機器去模擬這種跳躍性思維,這時候就無法完成邏輯推理層面上的治病過程。
從AI發(fā)展的技術上來說,技術本身存在很多缺陷,比如說魯棒性的問題。魯棒性是系統(tǒng)面臨決策產生的干擾因素時表現(xiàn)出來的穩(wěn)健性。人在判斷錯誤的時候會有一些其他因素來補償,人會及時終止自己的邏輯,會有一些潛意識的反應去防范一些惡性問題的發(fā)生。所以科學界說,人的魯棒性是好的,后果不是很嚴重。但機器的魯棒性是差的,它出現(xiàn)錯誤時自己都不知道是錯的,會繼續(xù)錯下去,帶來的后果很嚴重,因為它沒有修正的過程。所以我們目前對AI的認識必須要看到背后的風險。