今年全國兩會期間,人工智能(AI)成為各界高度關注的熱點議題。今年政府工作報告提出,深化拓展“人工智能﹢”,促進新一代智能終端和智能體加快推廣,推動重點行業領域人工智能商業化規?;瘧?。AI將如何重塑醫療服務模式?群眾如何更好運用“數字醫生”?臨床醫生如何應對這場AI變革?“AI﹢醫療”該怎樣在創新發展與安全合規之間找到平衡?帶著這些問題,記者采訪了多位代表委員。
“AI﹢醫療”應用不斷上新
當前,AI正深刻重塑醫療健康生態,深度融入篩查、診斷、治療、藥物研發、健康管理、資源配置等各環節。許多醫務工作者成為“AI﹢醫療”的推動者、倡導者,引領各類“AI﹢醫療”應用不斷上新,在臨床場景落地。
全國政協委員、四川大學華西醫院呼吸和共病研究院院長李為民團隊自主研發肺結節AI輔助診斷系統,該系統可對肺結節的位置、大小、惡性風險等進行快速精準的影像識別與輔助判斷,檢出準確率超98%。基層醫院應用該系統后,肺結節檢出與診斷水平顯著提升,接近三級醫院水平,同時診斷耗時縮短近一半。
全國政協委員、中國科學院院士、浙江大學醫學院附屬第二醫院院長王建安帶領團隊探索AI分析血管造影的新型檢查技術,助力醫生更精準地判斷患者是否需要植入支架。王建安介紹,在無創功能學評估指導下,相較于依靠造影判斷血管狹窄程度大于70%即建議植入支架的方式,這一技術可減少9.2%的不必要支架植入,實現更科學、精準的診療。
全國人大代表、南京市第一醫院副院長張俊杰則聚焦將頂尖心血管專家的臨床經驗轉化為智能手術規劃能力,借助AI實現手術風險預測與方案智能優化,助力高精尖技術向基層普及。“心臟不停跳瓣膜置換這樣的微創技術,目前仍集中在少數頂級醫院開展,??漆t生的手術量有限,難以滿足大量患者的需求。”張俊杰希望以AI賦能更多基層專科醫生,助其掌握關鍵技術,從而惠及更多患者。
在全國人大代表、湖南中醫藥大學第一附屬醫院兒童醫學中心主任張滌看來,AI與中醫藥的深度融合是大勢所趨,其在中醫藥領域的應用前景廣闊。“依托大數據平臺整合中醫經典文獻和歷代名醫醫案,讓年輕醫生可以更高效地學習經典理論和診療思路,并獲得更精準的診斷支持和更完整的治療方案。”張滌認為,這類AI系統具備學習和臨床雙重輔助功能,能有效提升基層中醫藥服務水平。
當前,我國“AI﹢醫療”應用不斷涌現。全國政協委員、江蘇省人民醫院(南京醫科大學第一附屬醫院、江蘇省婦幼保健院)院長劉云認為,目前我國AI醫療產品總量大、種類多,但同質化嚴重、可推廣性不強,多數產品難以真正落地基層。她建議,由國家層面建立完善AI醫療產品全鏈條評價準入體系,形成優勝劣汰良性生態;建立全國統一 AI應用場景庫,引導資源聚焦臨床核心痛點,如分級診療、慢病管理、基層服務等,重點扶持成熟度高、適配性強、性價比優的產品。同時,以縣域醫共體、城市醫療集團為載體,大力推廣AI眼底篩查、肺結節早篩、智能心電診斷等普惠應用,推動產品輕量化改造適配基層設備與人員能力。
“數字醫生”供參考,要注重數醫協作
近段時間以來,越來越多患者開始借助“數字醫生”進行健康咨詢與初步診療。部分代表委員指出,這種模式確實有積極作用,但要提醒的是,“數字醫生”無法替代醫生,其要和真實醫療體系有效銜接,才能規避風險、發揮更大作用。
全國政協委員、中國心胸血管麻醉學會常務副會長敖虎山介紹,“數字醫生”依托權威醫學知識庫和個性化健康信息打造,一方面能提供7×24小時健康咨詢,緩解醫療薄弱地區居民和行動不便人士的就醫難題,另一方面可以幫助醫生精準分流非緊急醫療需求,減輕醫療機構門診壓力。但他也強調,AI目前尚處于初級階段,只能將“數字醫生”作為“參考書”,不能作為診斷依據。
張滌也指出,中醫診療講究望聞問切,舌苔、脈象、神態等都是辨證的必備信息。普通群眾缺乏專業知識,描述癥狀時容易遺漏或誤述。指令輸入不準確,得出的結論就容易出現偏差,甚至產生誤導。
“數字醫生”規?;涞厝允芏嘀刂萍s。敖虎山說,一是服務邊界與責任規則模糊,健康咨詢與診療的界定、處方權歸屬等缺乏規范,引發合規爭議;二是數據根基薄弱,健康信息分散、標準不一、共享不暢,隱私保護與數據利用的矛盾突出,難以支撐個性化服務;三是技術評測體系不健全,缺乏統一標準、測試數據集和第三方評測機構,企業創新成本高;四是監管分類規則不明,功能迭代的監管紅線模糊,企業創新趨于保守。
“要通過頂層設計來促進‘數字醫生’與傳統醫療體系的規模化融合,在安全可靠的前提下,實現其在醫療健康領域的社會和經濟價值。”敖虎山呼吁,未來應明確“數字醫生”健康咨詢與管理輔助工具定位,建立分級分類管理框架,明晰服務范圍、責任劃分與質控標準;推進全民健康信息平臺互聯互通,建設區域醫療云算力服務;明確“數字醫生”臨床應用邊界,建立人機協同規范,落實醫生最終決策責任,并在低風險場景試點,完善評估體系。
醫生主導、AI賦能是發展方向
對于AI深度融入醫療領域,代表委員們普遍形成共識:醫生應主動擁抱AI,否則將面臨被時代淘汰的風險;但醫療始終由醫生主導,AI只能作為提升醫生診療能力的高級輔助工具。
針對“未來5年AI機器人或將替代外科醫生”的觀點,李為民表示,醫生永遠會存在,而且作用會越來越大。AI可提升外科手術的精準度與精細度,協助醫生完成以往視野不清、難度較高的手術,但手術核心決策仍需由經驗豐富的臨床醫生作出。
“過去,住院醫生寫病歷耗時耗力;如今,借助AI語音識別與文字生成功能,可以自動生成病歷,醫生只需對關鍵信息進行修改。”張俊杰認為,AI應用恰恰有助于將醫生交還給患者,使其全身心投入更具人文溫度與專業判斷的診療工作。
王建安也認為,AI有效助力醫生提升專業智慧、提高服務可及性、增強臨床思辨能力,但非常明確的是,推動“AI﹢醫療”發展必須堅持以醫生為主導、用AI賦能的核心方向。
“AI發展勢不可擋,我們要毫不猶豫地支持,但醫療行業關乎生命,必須帶著審慎的態度去接納和應用。”張滌強調,醫生絕不能過度依賴AI。如果醫生自己不學習經典、全靠AI分析數據,會導致傳承內核的丟失。中醫講究因人、因地、因時制宜,AI考慮得再周全,也不如醫生面對面望聞問切來得貼合實際。
回歸醫療本質,守住安全底線
“AI醫療越來越火,應當盡快推動其回歸醫療本質,堅持以患者為中心。其中,最重要的就是守住安全底線。”王建安指出,因醫療領域具有高專業性、高風險性與強倫理屬性,必須清醒認識到AI醫療的“有所不能”和“有所不應”。安全底線一旦失守,輕則影響診療質量,重則危及患者生命、引發系統性風險。
王建安指出,當前我國在制度設計、技術標準、持續監管、主動防御等方面尚未形成系統完備的安全保障體系,“AI﹢醫療”面臨著幾大挑戰。一是數據安全。AI應用的底層支撐是大數據,若數據源不規范、不精準,相關AI產品便可能存在安全風險。二是算法不透明。當前部分基于大模型的AI醫療產品決策過程不夠透明,使醫生往往無法清晰判斷算法建議是否符合具體臨床情境以及結論是否符合循證醫學證據,出現結果偏差時也難以追溯原因。三是網絡新型安全威脅。AI醫療系統與醫院信息系統深度耦合,數據接口復雜、攻擊面擴大,已成為網絡攻擊的高價值目標。一旦AI診斷輸出遭受惡意干擾,將直接危及患者生命安全。
為推動AI醫療高質量發展,讓技術加速惠及廣大基層群眾,王建安建議,強制推行AI醫療“可解釋性”準入標準,明確AI輔助決策須提供“臨床邏輯鏈”,將“透明、可解釋、可審核”作為三類醫療器械審批的硬性門檻;強化醫療數據全鏈條安全治理,構建AI醫療全生命周期安全監管體系,國家層面出臺AI醫療安全審查標準,醫院建立監測平臺,形成“部署—監測—迭代—退出”的閉環管理,穿透“算法黑箱”。
人工智能(AI)大模型正加速融入醫療健康生態,但其背后的法律責任、倫理邊界與風險分擔問題仍缺乏明晰框架。如何讓AI在守住安全與倫理底線的前提下健康發展?筆者認為,要明確AI輔助診療責任,構建一個安全、可信賴的智能醫療生態,必須直面以下4個問題。
破解“黑箱”確保決策過程可追溯
AI大模型在提供輔助診療時,其判斷邏輯存在難以解釋的“黑箱”特征。這一問題是法律責任認定的首要障礙。
對此,AI輔助診療需以“透明與可追溯”為前提。AI服務開發方應嚴格遵照相關規范,將可解釋性框架和模型卡嵌入產品交付流程,使醫務人員能夠理解AI判斷的臨床關鍵依據。醫院應要求AI服務開發方提供或自主建設輔助決策日志系統,記錄AI調用的時間、輸入數據、診斷結果及其置信度分數。這份檔案不僅是未來責任追溯的司法證據,也是醫院進行質量控制和持續性能監控的生命線。
同時,雙方在采購合同中應談妥透明度條款和審計權條款,拒絕以商業機密為由的過度封鎖,并允許專業的倫理委員會和技術審計團隊對算法的臨床安全性和持續有效性進行定期審查。
界定醫療智能決策的責任歸屬
當前,AI在醫療體系中多以輔助角色存在,法律上缺乏人格主體,造成了法律上的“主體真空”。當醫生過度依賴AI建議導致漏診或誤診時,如何界定侵權法上的因果關系和近因,是法律實踐中的最大難點。
借鑒我國現行醫療損害責任體系,責任可劃分為醫療機構與醫務人員的過錯責任,以及AI服務開發方的無過錯產品責任。醫院需制定嚴格的臨床使用規范,明確醫務人員對AI的建議負有最終的審慎驗證和判斷義務;若醫療責任是醫務人員未盡到合理注意義務或對算法盲目信任所致,則由醫療機構和醫務人員承擔過錯責任。若能證明損害源于系統程序缺陷、算法設計瑕疵,或系統性數據偏差、對抗性攻擊等新型算法缺陷,則由AI服務開發方承擔無過錯產品責任。
在司法實踐中,應引入具備算法審計能力的技術專家證人。通過技術審計,推動算法缺陷的舉證責任適度轉移,將證明算法缺陷的責任適度轉移給AI服務開發方,以減輕患者的舉證負擔。在保護患者權益的同時,促進AI技術的穩健應用。
建立維護患者權益的風險分擔機制
在AI深度賦能醫療的背景下,數據是核心要素,數據安全、隱私保護需要提升至核心制度保障層面。
首先,必須完善患者知情同意與數據授權機制。醫院應在“知情同意書”中增設AI輔助診療條款,明確AI輔助決策的方式、依據及不確定性。在數據使用方面,應優先采用數據不出本地、模型協同訓練的聯邦學習方法,以及對個人信息進行技術性模糊處理的差分隱私方法等隱私保護技術,從技術層面保障數據安全?;颊哂袡噙x擇是否接受算法建議,這體現了醫療服務中的共同決策理念。
其次,應積極探索“AI輔助診療責任保險”制度,推動醫療責任險與科技產品責任險協同,形成AI輔助診療綜合責任險。有關部門應指導保險機構開發相應產品,并要求高風險AI產品的開發者購買足額的保險,從而有效分散賠償風險、提高理賠效率,為AI輔助診療建立風險緩沖機制。
增強醫療智能決策的可持續性
當前,傳統監管模式無法有效追蹤AI產品上市后的性能漂移和安全風險。同時,跨部門監管協同困難以及人才能力的滯后,都是制約AI輔助診療可持續發展的關鍵因素。
促使監管適配技術發展,必須構建“全生命周期”監管體系:
一是推行AI風險分級管理。借鑒國際經驗,基于臨床影響和風險程度,將AI應用劃分為低風險、一般風險、高風險等級,并采取差異化的監管策略。對于直接參與診療輔助決策的高風險AI,應限制在具備高監管能力和倫理審查機制的機構內進行探索。
二是建立基于機器學習運維規范的持續監管框架。監管機構要嚴把AI產品上市審批關,建立上市后的主動監測、性能追蹤和定期再評價制度,要求AI服務開發方和醫療機構建立符合機器學習運維規范的系統,實現對AI產品性能漂移和異常的自動化監測和報告,從技術底層實現全鏈條監管。
三是加強多主體協同和規范指導。監管機構應加速制定統一的落地標準和細化監管規則。同時,建立由衛生健康行政部門主導的倫理與技術鑒定機構,為復雜的AI輔助診療糾紛提供專業、權威的裁決依據。
四是推行人才培養與倫理教育。幫助醫生、醫院管理者和法律人員了解AI原理和應用場景,加強倫理教育,防止過度依賴。(作者系上海社會科學院信息研究所副研究員 趙付春)