人工智能 (AI) 有可能在放射学实践中产生翻天覆地的变化,就像 1990 年代末和 2000 年代引入放射学信息系统 (RIS) 和图片存档和通信系统 (PACS) 技术一样。但是,AI 驱动的软件必须准确、安全和值得信赖,这些因素可能不容易评估。
机器学习软件在放射学图像数据库上进行训练。但这些图像可能缺乏防止算法偏见所需的数据或程序。这种算法偏差会导致临床错误和性能差异,从而影响 AI 执行的分析子集,从而无意中使某些患者群体处于不利地位。
一个由放射学信息学家、生物医学工程师和计算机科学家组成的跨国团队已经确定了 AI 放射学模型中算法偏差评估和测量的潜在陷阱。在描述他们在《放射学》上的发现时,研究人员还提出了减少三个关键领域偏见的最佳实践和未来方向:医学图像数据集;人口定义;以及偏倚的统计评估。
用于训练和评估 AI 算法的医学图像数据集反映了获取它们的人群。例如,在亚洲某个国家/地区获取的数据集自然不能代表北欧国家的人口。但是,如果没有关于图像采集位置的可用信息,如何确定这种潜在的偏差来源呢?
田纳西州孟菲斯市 St. Jude Children's Research Hospital 的主要作者 Paul Yi 和合著者指出,许多现有的医学成像数据库缺乏一套全面的人口统计特征,例如年龄、性别、性别、种族和民族。其他潜在的混杂因素包括扫描仪品牌和型号、用于图像采集的放射学方案、获得的放射学视图、医院位置和疾病患病率。除了整合这些数据外,作者还建议收集和共享原始图像数据,而无需进行特定于机构的后处理。
该团队建议,生成式 AI 是一组生成新数据的机器学习技术,它有可能创建合成成像数据集,使人口统计和混杂变量的表示更加平衡。这项技术仍在开发中,但可能会提供一种解决方案来克服与在不完美数据集中测量 AI 偏差相关的陷阱。
放射学研究人员对如何定义人口统计变量缺乏共识。作者观察到性别和种族等人口类别是由许多因素(包括社会和生活经历)影响的自我识别特征,作者建议种族和民族的概念不一定在特定社会之外翻译,混血儿个体反映了额外的复杂性和模糊性。
他们强调,确保在 AI 模型中准确测量基于种族和/或民族的偏见对于实现偏差评估的准确比较非常重要。这不仅具有临床意义,而且对于防止错误的 AI 衍生结果错误地制定卫生政策也至关重要,这可能会使先前存在的不平等长期存在。
研究人员在人口公平的背景下定义偏差,以及它如何反映人口统计群体之间指标的差异。然而,就偏倚的定义达成共识是复杂的,因为偏倚可能具有不同的临床和技术含义。他们指出,在统计中,偏差是指估计参数的预期值与其真实值之间的差异。
因此,放射学专业需要建立一个标准的偏见概念,并解决公平性指标的不兼容性问题,公平性指标是衡量机器学习模型是否以不同方式对待某些人口群体的工具。目前没有一个通用的公平性指标可以应用于所有情况和问题,作者认为永远不会有。
预测 AI 模型的不同作点可能会导致不同的性能,从而导致潜在的不同人口统计学偏差。这些需要记录在案,并且阈值应包含在研究中并由商业 AI 软件供应商提供。
作者提出了一些关键的行动方案,以减少放射学中 AI 的人口统计学偏见:
Yi 和怀廷工程学院霍普金斯大学 BME 的共同主要合作者 Jeremias Sulam 告诉 Physics World,他们对陷阱的评估和减轻人口偏见的建议反映了多年的多学科讨论。“虽然临床和计算机科学文献都以极大的热情讨论算法偏差,但我们很快了解到,算法偏差和公平性的统计概念在这两个领域之间往往有很大不同,”Yi 说。
“我们注意到,计算机科学和统计界与临床界,尤其是放射学之间缺乏有效沟通,往往会阻碍最大限度地减少 AI 模型中的人口偏见,”Sulam 补充道。
耶鲁大学医学院的梅丽莎·戴维斯 (Melissa Davis) 在《放射学》的一篇随附的社论中指出,共同努力应对偏见和公平性带来的挑战非常重要。“她写道:通过促进临床医生、研究人员、监管机构和行业利益相关者之间的合作,医疗保健界可以制定强有力的框架,优先考虑患者安全和公平结果,”她写道。
更新时间:2025-07-02
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号