清华大学资工系助理教授郭柏志与麻省理工学院、哈佛大学跨国研究发现,当采用先进的AI深度学习演算法来判读X光片及电脑断层扫瞄时,电脑竟会从医学影像分辨出患者是黑人、白人或亚洲人,并影响判断的准确率,被视为人工智慧的种族歧视,但科学家至今还不明白AI是如何办到。
台湾中央社报导,清华大学周四(8日)发布新闻稿指出,郭柏志与麻省理工学院、哈佛大学、史丹佛大学、多伦多大学等校跨国合作,分析超过20万名病患的胸部、颈椎、手部X光及胸部电脑断层扫瞄,发现人工智慧有“歧视”的问题。
研究发现,采AI深度学习演算法判读X光片及电脑断层扫瞄时,会分辨人种,进而影响医疗判断准确率,被视为人工智慧的种族歧视。
此研究成果日前登上国际顶尖期刊“刺胳针数位健康”(The Lancet Digital Health),吸引外媒报导。
美国食品药物管理局(FDA)目前已核准医院采用人工智慧辅助判读X光片及电脑断层扫瞄等医学影像,人工智慧的深度学习系统可帮助电脑针对大量资料自我训练,并发展出辨识模型,研究团队发现,人类放射师无法从X光片判断出患者的种族,但AI却能轻易达成,而且准确率高达9成。
研究团队中一名哈佛大学教授表示,当团队成员称AI可以从X光片来判断人种,自己简直不敢置信,认为这真的太疯狂,一定是哪里出错,但当越来越多的证据浮现,有团队成员则直言感觉很“恐怖”。
郭柏志指出,透过AI人工智慧协助诊疗发现,白人的医学影像有问题却没被检查出来的误判率是17%,黑人的误判率却达28%。医学影像的误判,会影响急诊、医疗给付等资源分配。
郭柏志说,医界近年大量引进人工智慧,透过智慧诊疗及医学影像识别技术等有助于医生更准确诊断,原是造福病患的好事,但这项研究揭露隐忧,提醒应注意医疗伦理,避免人工智慧产生的医疗不平等现象。
郭柏志强调,电脑应该是最公平的,但没想到电脑也默默地提取人类没教的资讯,包括人种及性别等,因此如何去除歧视,让各族群的医学影像判读都有一致的准确率,成为团队下一阶段要努力的目标。