以上六個Script功能提供基本運作功能,若您的瀏覽器不支援JavaScript功能,若網頁功能無法正常使用時,請開啟瀏覽器JavaScript狀態。 跳到主要內容區塊

媒體報導

清大與跨國團隊揭露 AI恐有種族歧視疑慮
新聞來源:中時新聞網   發佈時間:2022-06-14

 2022-06-09 記者/王惠慧

清大資工系助理教授郭柏志與跨國研究發現,人工智慧(AI)恐有種族歧視,使用AI深度學習演算法來判讀X光片及電腦斷層掃描,電腦竟可從醫學影像分辨出患者人種,引發醫療不平等現象,成果登上國際頂尖期刊《刺胳針數位健康》(Lancet Digital Health)。

郭柏志指出,近年來,醫界大量引進AI,研發醫療機器人、智慧診療及醫學影像識別技術等,有助醫師快速、準確診斷,美國食品藥物管理局(FDA)也核准,醫院採用AI輔助判讀X光片及電腦斷層掃描等醫學影像,AI的深度學習系統可幫助電腦針對大量資料自我訓練,並發展出辨識模型。

清大與麻省理工、哈佛等跨國研究團隊,與美國國衛院合作,分析超過20萬位病患的胸部、頸椎、手部X光及胸部電腦斷層掃描,發現人類放射師無法從X光片判斷出患者的種族,但AI能輕易做到,且準確率高達9成。

郭柏志說,成員簡直不敢置信,一開始以為AI從「骨質密度」來判斷人種,但並非如此,科學界迄今仍不解,AI到底是如何判讀出人種。

但AI能判讀人種,將影響醫學影像判讀準確率,引發嚴重醫療倫理問題,郭柏志表示,研究發現白人的醫學影像誤判率是17%,但黑人的誤判率卻高達28%,相差超過10個百分點,同時,誤判醫學影像也會影響急診、醫療給付等資源分配。

郭柏志指出,原以為人類才有歧視,AI應最公平,但沒想到AI也默默提取人類未要求它學習的資訊,如人種及性別等,下階段努力目標是去除歧視,讓各族群醫學影像判讀有一致準確率。