解决和避免医疗保健领域人工智能算法偏差的4种策略
芝加哥布斯应用人工智能中心的剧本建议评估人工智能算法偏差的风险并持续监控。 芝加哥布斯应用人工智能中心在他们最近发布的剧本中指出,人工智能算法偏见无处不在。通过与医疗保健提供者、保险公司、技术公司和监管机构等数十家组织合作,该中心指出,整个医疗保健行业都存在算法偏见。这些偏见会影响临床护理、操作工作流程和政策。
这些算法旨在帮助决策者确定谁需要资源。这个想法是,如果两个人使用该算法得分相同,那么他们将有相同的基本需求。这种方法应该有助于制定更公平和有效的护理方法。根据芝加哥布斯应用人工智能中心的说法,在确定需求时,个人皮肤的颜色或其他敏感属性应该无关紧要,而未能通过此测试的算法是有偏见的。
算法偏差背后是有原因的。第一个原因可能是组织试图达到正确的目标,但排除了人口中服务不足的目标。这可能是由于研究人员在非多样化人群中接受过培训或评估。
算法也可能完全针对错误的目标。
根据剧本,公司可以采取四个步骤来防止算法偏见进入他们的组织。
第一步是清点算法。开发人员应该与利益相关者交谈,以了解算法的使用方式和时间。一旦确定了算法,指定一个人来监控算法,尤其是在不同的群体中。
第二步确定解决算法偏差的关键;尽可能具体,剧本作者建议。如果您确切了解算法的目标应该是什么。
一旦有了这种理解,确保算法达到当前目标就容易多了。建议组织填写表格筛选标签选择偏差。使用该表,组织将填写算法是什么、理想目标、实际目标和偏差风险。
第三步包括更新任何低效的算法,或者如果它们不能很好地为公司服务,则将它们丢弃。
最后,研究人员应继续监控算法并进行审计,以确保它们达到目标。
“虽然我们在理解算法偏差方面确实取得了进展,但我们还有更多东西需要学习。该剧本旨在成为一份动态文档,我们将随着该领域的发展对其进行更新,”剧本总结道。
免责声明:本答案或内容为用户上传,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 如遇侵权请及时联系本站删除。