文件名称:当人类对结果存在分歧时的算法决策-研究论文
文件大小:334KB
文件格式:PDF
更新时间:2024-06-29 23:54:12
Algorithms epistemology
哪些解释任务应该委托给机器? 这个问题已成为“技术治理”争论的焦点。 一个熟悉的答案是,原则上,机器能够执行其目的没有争议的任务,但机器委派不适用于无法达成人类共识的任务。 毕竟,如果连(人类)专家都不能就任务的性质达成一致,那么机器还有什么希望? 在这里,我们扭转这个局面。 事实上,当人类对任务的性质存在分歧时,这应该是机器委托的初步理由,而不是反对它。 原因回到公平问题:受影响的各方应该能够预测特定案件的结果。 不确定的决策环境——在这些环境中人类对目标存在分歧——本质上是不可预测的,因为对于任何给定的情况,可能结果的分布将取决于特定决策者对相关目标的看法。 从非重复参与者的角度来看,这在决策过程中注入了不可简化的——而且我们认为是无法容忍的——随机化动态。 如果机器决策在任务相关目标的不同观点中聚合,它们承诺在可预测性的这个特定维度上进行改进; 无论机器决策的其他优点和缺点如何,都应该认识到这种收益并将其纳入治理。 论文分为两部分。 首先,我们详细阐述了正式的观点,将确定性和确定性区分为认知属性,并形成了决策类型的分类法。 在后半部分,我们通过刑事量刑的案例研究使形式论点变得生动起来。