文件名称:理解和解释自动化决策-研究论文
文件大小:1.14MB
文件格式:PDF
更新时间:2024-06-29 11:26:41
automated decisions algorithms
包括直接算法计算和机器学习和其他人工智能技术的更复杂结果在内的自动化决策可能是不透明的。 再加上在设计阶段做出的决定以及与用于训练自动化系统的数据相关的偏见和不公正风险,意味着自动化系统可以复制或加剧社会中已经存在的不平等。 通过 LSE 媒体与传播研究人员和技术工作室 Projects By IF 的设计师合作开展的“了解自动决策”项目,探索了通过设计界面事前和事后解释自动决策功能的方法。 我们还探索了如何征求公众对自动化系统的治理和监管的反思。主要发现:有多种方法可以通过简单的界面设计来展示如何使用数据来做出决策; 事前和事后解释每个针对系统设计和功能的不同领域的方法,以及界面原型可以帮助说明何时以及在什么情况下这些可能对使用或受制于这些系统的人有所帮助; 在某些情况下,这些基于界面的解释无法解决实际上可能对人们产生最大影响的系统元素; 强调透明度作为可解释决策的主要基础可能无法解决系统设计的最重要影响; 监管机构可能希望指定不同形式的可解释性,但也应承认,作为实现或建立在透明度基础上的一种手段的解释可能无法实现其所有目的。