机器人的补救措施-研究论文

时间:2021-06-09 12:47:28
【文件属性】:
文件名称:机器人的补救措施-研究论文
文件大小:1.3MB
文件格式:PDF
更新时间:2021-06-09 12:47:28
论文研究 当人工智能机器人行为不端时会发生什么? 这个问题不仅仅是假设性的。 随着机器人和人工智能 (AI) 系统越来越多地融入我们的社会,它们会做坏事。 它们已经杀死了人。这些新技术提出了许多有趣的实体法问题,从可预测性到透明度,再到复杂计算系统中高风险决策的责任。 我们在这里的重点是不同的。 我们试图探索一旦机器人造成伤害,法律可以并且应该提供哪些补救措施。实体法定义了谁赢得了法律纠纷,补救法提出了这样的问题:“当我获胜时,我能得到什么?” 有时,补救措施旨在通过将原告恢复到“如果不是”错误的状态来使原告完整。 但它们也可以包含道德判断、惩罚和威慑的要素。 例如,即使结果是原告的意外收获,法律也会经常采取行动剥夺被告的收益,因为我们认为让被告保留这些收益是不公平的。 在其他情况下,法律可能会命令被告做(或停止做)违法或有害的事情。 然而,当所讨论的不良行为者既不是个人也不是公司而是机器人时,补救法的这些目标中的每一个都会遇到困难。 我们可能会命令一个机器人——或者更现实地说,机器人的设计者或所有者——来赔偿它造成的损害。 (虽然,正如我们将要看到的,即使这样也会带来一些令人惊讶的棘手问题。)但事实证明,法官要“命令”机器人而不是人类参与或避免某些行为要困难得多。 机器人不能直接服从不是用计算机代码编写的法庭命令。 弥合自然语言和代码之间的翻译差距通常比我们想象的要困难。 现代人工智能技术尤其如此,这些技术使机器能够随着时间的推移学习和修改其决策。 如果我们不知道机器人如何“思考”,我们就不会知道如何告诉它以可能导致它做我们真正希望它做的事情的方式行事。此外,如果法律的最终目标是补救措施是鼓励良好行为或阻止不良行为,对机器人的行为进行惩罚的所有者或设计师可能并不总是有意义——如果仅仅是因为他们的所有者没有以任何有意义的方式错误地行事的简单原因。 同样的问题会影响禁令救济。 法院习惯于命令个人和公司做(或停止做)某些事情,如果不遵守,将受到藐视法庭的惩罚。 但是,在许多情况下,命令机器人放弃某些行为并非易事。 而命令它采取平权行动可能会证明更成问题。在本文中,我们开始思考如何为机器人设计一套补救措施。 例如,减少我们对道德内疚的教义关注,而更多地关注无过错责任制度(或至少对过错定义不同的制度)以补偿原告可能是有意义的。 但解决工伤赔偿只能解决部分问题。 通常我们想强迫被告做(或不做)某事以防止伤害。 禁令、惩罚性损害赔偿,甚至是返还等补救措施,都直接或间接地旨在改变或阻止行为。 但是阻止机器人的不当行为看起来也与阻止人类有很大不同。 我们现有的学说经常利用“非理性”人类行为,如认知偏见和风险规避。 例如,法院可以依赖这样一个事实,即我们大多数人都不想入狱,因此我们倾向于避免可能导致这种结果的行为。 但是,只有在修改算法以将制裁作为风险回报计算的一部分时,机器人才会被吓倒。 这些限制甚至可能要求我们制定“机器人死刑”,作为对某些不良行为的一种特定威慑。 今天,这种猜测可能听起来有些牵强。 但该领域已经包括行为不端的机器人被永久下线的例子——这种趋势在未来几年似乎只会增加。 最后,救济法也有一个表达成分,机器人会使其复杂化。 我们有时会给予惩罚性赔偿——或交出不义之财——以表达我们对您的不满。 如果我们的目标只是让自己感觉更好,也许我们也可能只是为了惩罚机器人而惩罚机器人。 但是,如果我们的目标是通过惩罚威胁发出更微妙的信号,机器人将要求我们重新思考我们当前的许多学说。 它还提供了对我们已经应用于个人和公司的补救法的重要见解。

网友评论