ChatGPT在醫療應用之潛能
產業趨勢前瞻
瀏覽數:3712
發布日期:2023/05/30
AI聊天機器人ChatGPT在近期爆紅,美國醫師測試使用ChatGPT升級版GPT-4描述部分病人的複雜病史,GPT-4可在數秒內使用醫學術語提出與其相符的治療建議,而ChatGPT挑戰美國醫師執照考試得分近60%,引起醫界關注。
 
有別於使用者利用Google查找健康或疾病資料,必須針對搜尋結果再進一步尋找相關資料,ChatGPT可直接呈現答案,並與使用者展開一系列對話互動。雖然其內容正確性、風險及倫理仍備受爭議,但其發展潛力亦被各界高度期待。以下即針對醫院與病患二端應用情境,描述其可能應用機會。
 
醫院端:行政助理、臨床輔助
 
歐美國家病歷要求較詳細記載,醫師往往需花大量時間在病歷的整理與書寫上,造成工作負擔。為降低醫護人員行政負荷,微軟、Amazon、Google及醫療新創等業者企圖運用語音辨識與自然語言處理技術,將門診內容自動生成病歷,取代人工書寫病歷。然而,現有AI提供的病歷仍會因診間硬體環境影響識別度,或未能準確理解醫師與病人間的對話,而發生會錯意情況。
 
為提升準確率及轉換效率,業者持續精進其AI模型。以微軟為例,微軟在2021年收購語音辨識技術公司Nuance,其產品DAX(Dragon Ambient eXperience)解決方案能自動紀錄醫生與病患間的對話,轉化為臨床紀錄。微軟進一步結合GPT-4模型,在今年3月推出新的AI醫療記錄應用程式DAX Express,據稱可在數秒內自動生成臨床記錄草稿,醫師可立即檢視病患就診的臨床紀錄。當然,AI雖減輕醫師的行政負荷,醫師仍需審視結果並簽字負責。
 
AI除了分擔醫療行政助理工作外,也可輔助臨床診斷。目前有愈來愈多醫療器材導入AI技術以提升其效能,而以AI為基礎的醫材軟體可協助醫療人員做出準確、快速的醫療判斷。例如:乳篩AI輔助系統可快速進行乳癌風險程度分級,並在醫師閱片時,自動顯示可疑位置輔助醫師精準判讀影像,而透過AI對話技術搭配智慧醫療器材,將可進一步提升病患與醫療人員的溝通效率。
 
民眾端:衛教、健康諮詢
 
在臨床實務上,醫師常因為時間有限,無法詳盡且有耐心地和病患溝通病情及治療計畫,倘若結合ChatGPT,醫師可先與患者進行充分病情溝通,讓患者表達更多個人身體資訊或個人想法,促進醫病間的溝通與信任,而ChatGPT則可後續根據醫囑對患者進行相關衛教,讓患者更深入且完整地了解其疾病或治療計畫的相關資訊。
 
在疾病管理方面,ChatGPT可根據民眾提出的問題,提供疾病基本資訊,例如疾病常見症狀、治療方式及預防方法等,也可指導病患進行慢性病管理,以改善其健康狀況,例如:提供患者糖尿病用藥資訊及飲食建議,協助患者瞭解疾病相關徵兆,正確用藥與調整飲食,以有效控制血糖。
 
此外,ChatGPT亦可協助初步提供民眾基礎健康資訊,例如:當民眾看不懂健康檢查報告中某個項目或某個數值所代表意義時,ChatGPT可以口語描述該項目主要檢查的目的、正常值範圍,以及如何維持健康等。民眾可以反覆詢問而無需擔心占用醫護人員及其他民眾時間,醫護人員則可針對ChatGPT不足之處提供進一步協助,提升醫護整體滿意度。
 
生成式AI醫療應用仍未成熟
 
疫情驅動醫院運用新興科技優化醫院行政流程、輔助醫師決策、提供遠距照護等,以紓解醫護人力不足、病患長時間等待、醫院行政效率不彰等問題。然而,目前AI在醫療之應用仍屬於萌芽階段,例如:醫療穿戴裝置輔助意外監測,但由於感測失誤或使用者操作不良導致誤判情況仍時有所聞,增加醫護人員被干擾頻率,以及需花時間分辨通報的正確性,反而加重工作負擔。
 
ChatGPT落地於醫療場域目前仍存在許多爭議。首先,在醫療場域使用,ChatGPT可能誤導患者透漏個人隱私,而醫療資訊屬高敏感資料,如何回應用戶並同時保護個人隱私,需要建立完善機制。其次,ChatGPT易夾雜有用資訊與錯誤資訊,生成具說服力但錯誤的內容。若民眾無判斷能力,相信錯誤的醫藥資訊,恐造成嚴重後果。再來,ChatGPT內容生成機制仍不透明,如果生成的結果有誤,造成錯誤判斷,或生成的內容存在偏頗,皆可能造成巨大影響。
 
因此,ChatGPT未來需加入醫療專業知識庫進行模型訓練和持續優化,進而使其生成的結果更加精確,並透過嚴謹的臨床試驗,在不同情境下反覆測試,以提供足夠的安全保障,才可在醫療領域發揮潛能。
 
(本文刊登於2023/5/10 工商時報 A6版) 
關鍵字: ChatGPT ; 醫療 ; 生成式AI