AI藏種族歧視因子 清大跨國團隊揭醫學倫理隱憂
2022/6/9 18:14(2024/3/16 11:57 更新)
(中央社記者郭宣彣新竹市9日電)清大資工系助理教授郭柏志與麻省理工學院等校研究發現,採AI深度學習演算法判讀X光片及電腦斷層掃描時,會分辨人種,進而影響醫療判斷準確率,被視為人工智慧的種族歧視。
清華大學今天發布新聞稿指出,郭柏志與麻省理工學院、哈佛大學、史丹佛大學、多倫多大學等校跨國合作,分析超過20萬名病患的胸部、頸椎、手部X光及胸部電腦斷層掃描,發現人工智慧有「歧視」的問題。此研究成果日前登上國際頂尖期刊「刺胳針數位健康」(The Lancet Digital Health),吸引外媒報導。
郭柏志指出,透過AI人工智慧協助診療發現,白人的醫學影像有問題卻沒被檢查出來的誤判率是17%,黑人的誤判率卻達28%。醫學影像的誤判,會影響急診、醫療給付等資源分配。
郭柏志說,醫界近年大量引進人工智慧,透過智慧診療及醫學影像識別技術等有助於醫生更準確診斷,原是造福病患的好事,但這項研究揭露隱憂,提醒應注意醫療倫理,避免人工智慧產生的醫療不平等現象。
郭柏志表示,未來要如何去除歧視,讓各族群醫學影像判讀都有一致的準確率,為下一階段努力的目標。(編輯:戴光育)1110609
本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。