文件名称:算法表现不佳:来自公司法的解决方案-研究论文
文件大小:725KB
文件格式:PDF
更新时间:2024-06-29 11:06:22
Artificial Intelligence Corporate
有时算法会做一些伤害人的事情。 显然,算法在效率和数据分析方面提供了许多社会效益。 但是,当他们歧视借贷、操纵股市或违反隐私预期时,他们可能会大规模伤害我们。 在最近对技术人员的一项调查中,只有三分之一的人预测人工智能将对社会产生积极影响。 法律可以通过在算法对我们不利时强加责任来帮助使算法为我们工作。 问题在于算法不太适合现有的责任概念。 责任需要伤害性行为,但算法的行为意味着什么? 只有人在行动,但算法不是法律之下的人。 一些雄心勃勃的学者认为,法律应该改变其观点,将复杂的算法视为人。 然而,哲学难题(算法真的是人吗?)、实际障碍(你如何惩罚算法?)和意想不到的后果(算法“人”会起诉我们吗?)已被证明是无法克服的。 本文提出了一个不那么直接但更基础的算法责任方法。 公司目前设计和运行具有最显着社会影响的算法。 公司责任的长期原则已经承认公司是能够做出有害行为的“人”。 公司法规定公司通过其员工行事,因为公司可以控制员工的行为并从中受益。 当员工行为不端时,公司最有资格对他们进行纪律处分和纠正。 但是没有理由说公司只能通过他们的员工采取行动。 本文认为,相同的基于控制和利益的基本原理扩展到公司算法。 如果法律承认算法行为在很大程度上应符合公司行为的资格,那么公司责任的整个框架就会启动。通过行使它对公司已经拥有的控制权,法律可以帮助确保公司算法在很大程度上对我们有利。