人工智能的伦理和法律挑战:欧盟对有偏见和歧视性人工智能的回应-研究论文

时间:2024-06-29 07:23:43
【文件属性】:

文件名称:人工智能的伦理和法律挑战:欧盟对有偏见和歧视性人工智能的回应-研究论文

文件大小:1.18MB

文件格式:PDF

更新时间:2024-06-29 07:23:43

artificial intelligence discrimination

人工智能 (AI) 在决策环境中的扩散被誉为灵丹妙药,承诺用客观、可靠的决策取代人类主观性。 矛盾的是,最近大量的新闻报道引起了人们对大西洋两岸人工智能系统所表现出的偏见和歧视态度的关注。 尽管在刑事司法、工作招聘和边境控制等关键环境中自动化决策渗透,其中个人和团体的权利和*同样受到威胁,但人类代理人通常无法解开人工智能系统如何到达如此不可接受的决定。 人工智能显着的偏见问题及其作为一个无法解释的“黑匣子”的运作使得对这一现象的探索迫在眉睫,主要是在较少审查的欧盟政策领域。 本论文采用跨学科研究方法,以研究狭义人工智能,尤其是其数据驱动的机器学习 (ML) 形式,在整个欧盟范围内对偏见和歧视构成的主要伦理和法律挑战。 第 1 章为读者提供了有关 AI 及其相互依赖的 ML 和大数据技术的相关背景信息。 它以一种易于理解的方式关注欧盟文书采用的人工智能的定义和类型,以及其历史进程和当前发展阶段的里程碑。 第 2 章进行哲学分析,以反对 AI 假定的道德中立性。 认识论性质的伦理问题表明,偏见通过目标的选择、训练数据、对相关性的依赖以及非专业人士和人工智能开发人员之间的认知不平等以及人类代理和“黑匣子”机器之间的认知不平等来遍历人工智能系统. 谈到规范的伦理问题,人工智能系统会产生一些影响,根据平等主义,这些影响反对公平和平等的规范理想。 在更多的卡夫卡式场景中,个人和公司可能会使用人工智能的技术特性来掩盖他们的歧视意图。在第 3 章中,根据欧盟软性和硬性法律文书,应用理论法律方法来揭示这些具有挑战性的人工智能实例的张力。 考虑到其数据驱动的特性,有偏见和歧视性的人工智能决策属于新实施的通用数据保护条例 (GDPR) 的适用范围。 特别是第 5 条的数据处理原则、第 35 条的数据保护影响评估(DPIA)、禁止自动决策和第 22 条的推测性解释权、合法、公平和透明的原则。第 5 (1) a) 条、建议的审计实施和增强的执法机构受到审查。论文得出结论,基于原则的方法和提供预期影响评估是 GDPR 的监管优势。 然而,欧盟应阻止在关键决策环境中部署人工智能,并探索填补相关法律空白的方法。 总体而言,面对有偏见和歧视性的人工智能,值得信赖的人工智能被提议作为道德和法律的典范。


网友评论