文件名称:司法对可解释人工智能的需求-研究论文
文件大小:165KB
文件格式:PDF
更新时间:2024-06-29 06:44:32
artificial intelligence machine
关于机器学习算法的一个反复出现的问题是它们作为“黑匣子”运行,因此很难确定算法如何以及为什么会达到特定的决策、建议或预测。 然而,法官将越来越频繁地面对机器学习算法,包括在刑事、行政和侵权案件中。 本文认为法官应该要求对这些算法结果进行解释。 解决“黑匣子”问题的一种方法是设计系统来解释算法如何得出结论或预测。 如果法官要求这些解释,他们将在塑造“可解释人工智能”(或“xAI”)的性质和形式方面发挥开创性作用。 使用普通法的工具,法院可以制定 xAI 在不同法律背景下的含义。 让法院扮演这个角色有很多好处:自下而上建立的司法推理,使用对事实的逐案考虑来产生细微差别的决定,是为 xAI 制定规则的一种务实的方式。 此外,法院可能会刺激生产不同形式的 xAI,以响应不同的法律环境和受众。 更一般地说,我们应该支持公共参与者更多地参与 xAI 的塑造,而 xAI 迄今为止主要掌握在私人手中。