2025/11/11
【公衛研究新發現】2025.11.06記者會「生成式 AI 在中風照護中仍存明顯侷限」主講人:李達宇副教授

AI進入醫療場域前,病人安全須先到位——台大公衛李達宇副教授:大型語言模型在中風照護仍未達臨床門檻

 

  人工智慧快速融入醫療照護,但在高風險疾病情境中是否真正安全、可靠?

  國立臺灣大學公衛學院健管所李達宇副教授(教育部玉山青年學者)116日記者會公布最新研究結果,評估三種大型語言模型(LLMs)在中風照護不同階段的表現,提醒「AI很聰明,但不是每次都安全」,病人與醫療體系需更謹慎看待。

 

 

左起為鄭守夏院長、李達宇副教授與陳保中特聘教授合影

期盼跨醫療、科技、公共衛生與政策領域合作,共同打造兼具安全與信任的負責任醫療 AI

 

 

 

  研究評估 ChatGPT-4oGemini Ultra 1.0Claude 3 Sonnet 在「預防、診斷、治療與用藥、復原與復健」四大情境下的準確性、幻覺率、同理性、可理解度與可行性。結果顯示,三種模型在大多數評分指標中皆 未達臨床合格門檻(60),尤其在關鍵「治療」階段,準確度與可行性均偏低,代表若民眾直接依賴AI回答,有可能面臨錯誤或不安全的指示。

 

  研究進一步比較三種常見提示工程方法:Zero-shotChain of ThoughtTalk Out Your Thoughts。雖然不同方式在同理性、具體性等面向略有差異,但整體提升有限,顯示目前僅靠提示工程無法保證臨床品質。李達宇副教授指出,問題不只在「怎麼問」,更在於 AI 缺乏臨床指引、病患情境、醫療紀錄等背景資訊,「情境工程」比單純的提示設計更關鍵。

 

 

李達宇副教授於記者會中展示研究案例,指出 AI 在部分醫療應用具有潛力,但在高風險情境中仍須審慎驗證,以病人安全為優先。

 

 

  李達宇副教授表示,越來越多病人使用聊天機器人詢問中風症狀、復原方式或用藥判斷,但若錯誤內容未被察覺,後果可能嚴重。「真正的慢性病照護,多發生在診間之外,一旦AI回答不準確,病人可能受到誤導。」他呼籲,政府、醫療體系與科技產業必須共同建立「負責任的醫療AI」,讓技術發展以安全、透明與信任為核心。

  本次活動邀請臺大環職所陳保中特聘教授擔任評論人,並與現場媒體與師生交流AI發展、醫療倫理與政策推動等議題。

 

 

記者會現場,李達宇副教授與媒體記者交流研究重點,說明大型語言模型在中風照護情境中仍存在臨床落差與安全風險。

 

 

 

媒體報導整理:

 

1 聯合新聞網 中央社 別把AI當醫師 台大研究:3大生成式AI表現不及格
2 中央通訊社 沈佩瑤 別把AI當醫師 台大研究:3大生成式AI表現不及格
3 自由健康網 楊綿傑 AI應用於中風醫療仍不可靠 台美團隊研究登國際期刊
4 民視新聞網 陳清芳 別把AI當醫師 台大研究:3大生成式AI表現不及格
5 中央廣播電台 楊雨青 AI應用夯 台大公衛學者:中風照護仍有不足
6 聯合新聞網 林琮恩 萬事問AI 中風病人小心風險
7 三立新聞網 蔣季容 生病就問AI?台大學者「模擬中風病人」實測 驚人結果登國際期刊
8 自由時報 楊綿傑 AI應用於中風醫療仍不可靠 台美團隊研究登國際期刊
9 中天新聞網 張雅淳 全球首次研究!中風照護過度依賴AI 恐釀致命結果