以上六個Script功能提供基本運作功能,若您的瀏覽器不支援JavaScript功能,若網頁功能無法正常使用時,請開啟瀏覽器JavaScript狀態。 跳到主要內容區塊

媒體報導

AI藏種族歧視因子 清大跨國團隊揭醫學倫理隱憂
新聞來源:中央通訊社   發佈時間:2022-06-14

 2022-06-09 記者/郭宣彣

清大資工系助理教授郭柏志與麻省理工學院等校研究發現,採AI深度學習演算法判讀X光片及電腦斷層掃描時,會分辨人種,進而影響醫療判斷準確率,被視為人工智慧的種族歧視。

清華大學今天發布新聞稿指出,郭柏志與麻省理工學院、哈佛大學、史丹佛大學、多倫多大學等校跨國合作,分析超過20萬名病患的胸部、頸椎、手部X光及胸部電腦斷層掃描,發現人工智慧有「歧視」的問題。此研究成果日前登上國際頂尖期刊「刺胳針數位健康」(The Lancet Digital Health),吸引外媒報導。

郭柏志指出,透過AI人工智慧協助診療發現,白人的醫學影像有問題卻沒被檢查出來的誤判率是17%,黑人的誤判率卻達28%。醫學影像的誤判,會影響急診、醫療給付等資源分配。

郭柏志說,醫界近年大量引進人工智慧,透過智慧診療及醫學影像識別技術等有助於醫生更準確診斷,原是造福病患的好事,但這項研究揭露隱憂,提醒應注意醫療倫理,避免人工智慧產生的醫療不平等現象。

郭柏志表示,未來要如何去除歧視,讓各族群醫學影像判讀都有一致的準確率,為下一階段努力的目標。