大多數診斷依賴于病理結果,因此病理報告的準確性可以區(qū)分診斷和誤診。例如,人工智能可以在像素級別了解病理結果,這可以了解癌癥的進展。人工智能還幫助醫(yī)生關注病理圖像中最相關的區(qū)域。
各種形式的放射學(如CT掃描、核磁共振成像和X射線)為醫(yī)療保健服務提供者提供了患者身體的內部視圖。然而,不同的放射學專家和醫(yī)生對這些圖像的解讀往往不同。人工智能有助于實現(xiàn)更一致的解釋。它還幫助放射科醫(yī)生更好地識別腫瘤的狀態(tài)或癌癥的侵襲性。
醫(yī)院是智能設備的主要購買者。這些設備采用平板電腦和醫(yī)院設備的形式,存在于重癥監(jiān)護病房(ICU)、急診室、手術室和普通病房。人工智能通過監(jiān)測患者的情況,并提醒醫(yī)生可能與患者的氧氣水平、呼吸模式、心跳、血壓或感染(如敗血癥)有關的重要狀態(tài)變化。
人工智能在手術室中被用作輔助功能,以縮小不同醫(yī)生的經驗和知識之間的巨大差異。支持人工智能的系統(tǒng)能夠快速梳理大量數據,以顯示醫(yī)生需要的信息。
在醫(yī)療保?。ɑ蛉魏涡袠I(yè))中采用人工智能的一個常見問題是,啟用人工智能系統(tǒng)的設計者和用戶傾向于更多地關注潛在的利益,而不是潛在的風險。雖然現(xiàn)在似乎每個人都在談論人工智能,但很少有人能夠很好地理解這個主題。其結果是人們正在構建和采購他們并不完全理解的系統(tǒng)和軟件。
目前,人們對人工智能還是知之甚少。算法偏差是一個重要的話題,因為它使人工智能系統(tǒng)的準確性低于人們預期,并可能導致意想不到的結果。
有著偏差的人工智能結果源于算法作者或收集、選擇和使用數據的人的故意或無意偏見,其數據本身可能有偏差。鑒于醫(yī)療行業(yè)使用的大量數據(大數據)以及進行準確數據分析的必要性,了解并糾正偏差非常重要。
醫(yī)療保健行業(yè)越來越依賴人工智能進行決策。硬編碼系統(tǒng)的問題是可能無法解釋所有情況。自我學習系統(tǒng)更加靈活;但是,并非所有系統(tǒng)都能夠解釋其結果或建議,也不是所有系統(tǒng)都能夠解釋導致結果或建議的因素。系統(tǒng)中也可能存在偏見。因此,人工智能系統(tǒng)可能會做出錯誤的建議或決定,而醫(yī)療保健提供者對此負有責任。
醫(yī)生通常信奉“首先,不要傷害他人”希波克拉底的誓言,但是人工智能是如何處理的呢?大多數人認為人工智能是不道德的,因為它只是一種工具,而操作者對人工智能的使用將會產生道德或不道德的結果。
然而,由于自我學習的人工智能系統(tǒng)能夠感知人類無法感知的事物,并且它們不一定能夠解釋其推理或結論,因此可能會出現(xiàn)意想不到的結果,其中一些結果可能是不道德的。此外,人工智能目前缺乏同情心和同理心,因此其決策過程與人類不同。
《醫(yī)療保險可移植性和責任法案》(HIPAA)對醫(yī)療保健信息的使用以及醫(yī)療服務提供者使用的信息有嚴格的規(guī)定。由于“壞”數據、算法偏差或無法維護系統(tǒng)的機器學習培訓,人工智能可能會出現(xiàn)故障,如果沒有得到妥善保護,黑客也可能會破壞這個人工智能系統(tǒng)。