導讀:在醫(yī)療服務中使用人工智能有哪些主要風險和障礙?醫(yī)療保健系統(tǒng)如何確保這些因素不會給患者和醫(yī)療服務提供者帶來重大問題?醫(yī)療AI落地的途中,還有哪些難關需要克服?
圖片來自“123RF”
醫(yī)療AI可以帶來許多潛在的好處,這一點毫無爭議。但是,利益相關者也不能忘記使用該技術(shù)可能存在的風險和障礙。為了避免AI給醫(yī)療保健的潛在危害,供應商、支付方、管理人員和其他主要行業(yè)參與者需要解決技術(shù)的潛在問題,并找到克服這些挑戰(zhàn)的創(chuàng)新方法。
近年來,人工智能已迅速成為醫(yī)療保健人員、供應商和IT開發(fā)人員討論的主要話題。醫(yī)療及相關領域的專家已經(jīng)探索了AI技術(shù)的許多應用,并認識到它對未來醫(yī)療服務的潛在優(yōu)點:加快醫(yī)療診斷速度、提高讀片的精度、減少醫(yī)生的工作量……這些能力可能意味著更好、更精確的治療,改善患者的治療效果,并最終降低護理成本。
然而,新技術(shù)給人帶來的希望很容易讓人們忘記醫(yī)療器械AI化可能帶來的問題。例如:算法存在爭議,患者安全問題以及數(shù)據(jù)隱私威脅等問題,都使人工智能在醫(yī)療保健領域的應用受到質(zhì)疑,并可能限制AI在醫(yī)療行業(yè)中的發(fā)展。
在醫(yī)療服務中使用人工智能有哪些主要風險和障礙?醫(yī)療保健系統(tǒng)如何確保這些因素不會給患者和醫(yī)療服務提供者帶來重大問題?醫(yī)療AI落地的途中,還有哪些難關需要克服?
第一關:存在爭論的算法與數(shù)據(jù)
臨床醫(yī)生必須完全相信算法是準確、可靠和客觀的, AI工具才能成為常規(guī)臨床護理的一部分。然而,有時用于訓練算法的數(shù)據(jù)是有偏差的,或者算法可能被設計為偏差結(jié)果。在最近發(fā)表在新英格蘭醫(yī)學雜志(NEJM)上的一篇文章中,斯坦福大學醫(yī)學院的研究人員指出:醫(yī)療數(shù)據(jù)中的偏差或許是人們無意識引入的,最終導致有偏差的數(shù)據(jù)被帶入到醫(yī)療保健系統(tǒng)正常的數(shù)據(jù)中。
相關部門應該有所作為,并清楚地了解深度學習中數(shù)據(jù)來源和數(shù)據(jù)的使用方法。這可能需要商業(yè)、學術(shù)或?qū)S袛?shù)據(jù)庫提供分析信息來提供算法研究指南。
第二關:難以服眾的信息安全
雖然AI評估大量數(shù)據(jù)的能力令人興奮,但患者并不相信AI工具會將他們的信息保密。
2018年對500名患者進行的一項調(diào)查顯示,雖然大多數(shù)患者在醫(yī)療保健環(huán)境中使用AI比在銀行或零售環(huán)境中使用AI更為舒適,但AI技術(shù)仍會在醫(yī)療保健消費者中產(chǎn)生信任問題。只有35%的受訪者表示他們確信他們用于人工智能的數(shù)據(jù)是安全存儲的。40歲以上的消費者中有69%擔心他們的數(shù)據(jù)沒有安全存儲,而40歲以下的消費者中有58%擔心這一點。
Frost & Sullivan最近的一項分析表明,從可穿戴監(jiān)測工具中提取信息并直接進行AI化處理的的應用將更加廣泛應用到人們的日常中。隨著移動醫(yī)療數(shù)據(jù)在患者管理中發(fā)揮更大作用,數(shù)據(jù)安全問題將變得更加重要。
行業(yè)的主要參與者正在努力解決數(shù)據(jù)安全問題。Aetna,Ascension,Humana和Optum最近加入了Synaptic Health Alliance,這是一個使用區(qū)塊鏈技術(shù)在供應商之間創(chuàng)建安全數(shù)據(jù)集的協(xié)作試點項目。雖然區(qū)塊鏈對醫(yī)療保健領域來說仍然相對較新,但該技術(shù)對數(shù)據(jù)安全性和更加無縫的數(shù)據(jù)交換具有重要意義。
第三關:醫(yī)療AI短、中、長期的問題
人工智能應用于醫(yī)療器械中存在的潛在風險是現(xiàn)如今醫(yī)療工作真需要認真考慮的問題。當計算機完全按照指令去做事時,也可能會引起或加劇意外結(jié)果。我們也分析了短期,中期和長期發(fā)展中可能會出現(xiàn)的問題。
1. 短期
AI嚴格按照獲得的數(shù)據(jù)訓練,可能會出現(xiàn)一種稱為“分布式移位”的現(xiàn)象:訓練數(shù)據(jù)和真實數(shù)據(jù)不同,導致算法得出錯誤的結(jié)論。AI也沒有像醫(yī)生那樣權(quán)衡假陽性或假陰性的成本和后果的能力,它們不能像人一樣“謹慎行事”。計算機只能按照指令運行,沒有獨立改善數(shù)據(jù)的能力。并且機器學習應用程序通常作為“黑匣子”運行,如果臨床醫(yī)生只能根據(jù)系統(tǒng)的最終結(jié)果來判斷預測,那么它可能會影響醫(yī)生的診斷結(jié)果。
2. 中期
隨著機器學習變得越來越普遍,臨床醫(yī)生和與機器學習相互作用的人有可能變得自滿,并將所有計算機生成的評估都默認為“絕對可靠”。但隨著時間的推移,訓練數(shù)據(jù)集變得越來越老,可能會與未來新的治療方法與新的用藥種類產(chǎn)生沖突。
3. 長期
雖然人工智能控制與人類生活直接相關的過程或設備(胰島素泵,呼吸機等)還有很長的路要走,但相關研究人員必須謹慎行事。機器學習算法在相當狹窄的數(shù)據(jù)集上進行訓練,無法考慮患者需求或治療結(jié)果的更廣泛背景。深度學習可以“忽悠”研發(fā)者,因為研究結(jié)果會呈現(xiàn)短期有效但與長期目標相悖的結(jié)果。
另外關于機器學習系統(tǒng)可以進行多少程度的“探索”這一問題,是存在道德和安全問題的:持續(xù)學習的自主系統(tǒng)最終將嘗試推動治療的界限,發(fā)現(xiàn)可能傷害患者的新策略。所有這些都引發(fā)了AI和機器學習應該解決的問題——增加人類的直接監(jiān)督。
結(jié)語
利用機器學習開發(fā)人工智能是一個激動人心的研究領域,但變化快速的步伐、技術(shù)的多樣性和調(diào)整參數(shù)的多樣性,使得人們很難把握AI系統(tǒng)在臨床應用中的準確程度。隨著人工智能和其他分析技術(shù)不斷改造醫(yī)療行業(yè),醫(yī)療系統(tǒng)領導者和供應商所扮演的角色將隨之變化。
醫(yī)療AI可以帶來許多潛在的好處,這一點毫無爭議。但是,利益相關者也不能忘記使用該技術(shù)可能存在的風險和障礙。為了避免AI給醫(yī)療保健的潛在危害,供應商、支付方、管理人員和其他主要行業(yè)參與者需要解決技術(shù)的潛在問題,并找到克服這些挑戰(zhàn)的創(chuàng)新方法。