文件名称:现实世界中更公平的机器学习:在不收集敏感数据的情况下减轻歧视-研究论文
文件大小:280KB
文件格式:PDF
更新时间:2024-06-29 09:48:47
machine learning algorithmic
基于算法、机器学习模型的决策可能是不公平的,在用于训练它们的历史数据中再现偏见。 虽然计算技术正在通过诸如歧视感知数据挖掘 (DADM) 和公平、负责任和透明的机器学习 (FATML) 等社区来解决这些问题的各个方面,但它们的实际实施面临着现实世界的挑战。 出于法律、制度或商业原因,组织可能不会持有有关敏感属性(例如性别、种族、性取向或残疾)的数据,以诊断和减轻紧急的代理间接歧视(例如红线)。 这些组织也可能缺乏识别和管理作为复杂社会技术系统的新兴属性的公平问题的知识和能力。 本文介绍并讨论了在更公平的机器学习背景下处理此类知识和信息缺陷的三种潜在方法。 受信任的第三方可以选择性地存储执行歧视发现所需的数据,并以保护隐私的方式将公平约束纳入模型构建。 协作在线平台将允许不同的组织记录、共享和访问上下文和经验知识,以促进机器学习系统的公平性。 最后,无监督学习和教学上可解释的算法可能允许建立公平假设,以进行进一步的选择性测试和探索。 机器学习中的现实世界公平挑战不是抽象的、受约束的优化问题,而是制度和上下文基础。 计算公平工具很有用,但必须在将影响其部署的混乱环境中进行研究和开发,而不仅仅是针对想象的情况。 不这样做会带来真正的、近期的算法危害。