过失和AI的人类用户-研究论文

时间:2024-06-09 02:00:53
【文件属性】:

文件名称:过失和AI的人类用户-研究论文

文件大小:540KB

文件格式:PDF

更新时间:2024-06-09 02:00:53

tort negligence artificial intelligence machine

经常要求过失法适应新技术。 人工智能(AI)也是如此。 但是AI是不同的。 本文以医学,财务建议,数据安全和半自动驾驶中的示例为例,认为AI对过失法律构成了严峻挑战。 通过在人类决策者和该决策的后果之间插入一层难以理解,不直观且统计得出的代码,人工智能会破坏我们对错误选择责任的典型理解。 该文章认为,人工智能的独特性质导致过失导致四个复杂性:1)无法预见的人工智能将犯的特定错误; 2)人类与AI互动时的能力限制; 3)将AI特定的软件漏洞引入以前没有由软件进行调解的决策中; 4)基于AI的统计性质和偏见潜力的分布问题。侵权学者大多忽略了这些挑战。 这是可以理解的,因为它们一直专注于自动驾驶机器人,尤其是自动驾驶汽车,这些机器人很容易杀死,伤害或伤害他人。 但是,这个重点却忽略了考虑什么是人工智能。 在机器人之外,人工智能技术不是自主的。 相反,它们主要是决策辅助工具,旨在改善人类决策的低效率,任意性和偏见。 侵权学者关注于消除用户的技术,因此一直关注产品责任和创新,因此错过了疏忽法的含义,因为疏忽法是AI使用者受到伤害时的治理制度。在过失法的更广泛主题中:有限理性与可预见性之间的关系,基于新技术更新合理性概念的必要性以及将统计事实与诸如断层之类的个体确定相结合的困难。 该分析表明,尽管可能存在一种建立监管支持系统的方法,以使过失法律按预期运作,但一种监督措施,即其并非基于个人过失,则可能是一种更有成果的方法。


网友评论