算法越来越多地被用于医疗保健环境,但它们可能会放大有害的偏见和剥夺权利的模式。
“基本上,我们不知道为什么算法会这样计算,我们发现它们倾向于关注可能使数据偏向健康差异的数据点,”霍普金斯大学公共卫生学院生物伦理学家Kadija Ferryman博士表示。
例如,评估个人滥用阿片类药物风险的NARX评分,可能会使用犯罪率等数据点。 由于对某些社区的过度监管,种族偏见可能会嵌入到犯罪历史数据中,这意味着某些人群可能无法获得必要的药物治疗。
然而,精心设计的算法,可以用来查明医疗保健数据中的偏差,并“帮助我们更多了解我们已知存在的一些不公平现象,”Ferryman称。
声明:本文翻译内容经约翰.霍普金斯大学公共卫生学院健康安全中心授权。中文翻译版权归本人所有,未经本人授权,不得转载本人翻译内容。英文内容版权归原作者所有。
https://us3.campaign-archive.com/?u=0a43ad874dbe00d8f0545cfef&id=d7e6fb4ee4
发表评论 取消回复