文件名称:欧盟关于可信赖人工智能的道德准则的方法-研究论文
文件大小:331KB
文件格式:PDF
更新时间:2024-06-29 07:36:19
AI Artificial Intelligence
作为其欧洲人工智能 (AI) 战略的一部分,并作为对这项技术提出的日益增加的伦理问题的回应,欧盟委员会于 2018 年 6 月成立了一个独立的人工智能高级专家组 (AI HLEG)。该小组的任务是起草两项可交付成果:人工智能道德准则和政策与投资建议。 九个月后,它发布了第一个交付成果,提出了一个全面的框架,通过为人工智能从业者提供道德指导来实现“可信人工智能”。 本文深入探讨了该小组开展的工作,特别关注其 AI 道德准则。 首先,本文阐明了导致创建 AI HLEG 的背景及其任务 (I)。 随后,阐述了《指南》的宗旨和宗旨(二),分析了《指南》的起草过程(三)。 特别关注围绕道德和法律在人工智能治理领域 (IV) 中各自发挥的作用的问题,以及在整个过程 (V) 中必须克服的一些挑战。 最后,本文将《指南》置于国际背景下,并列出了在迈向适当的人工智能治理框架 (VII) 过程中的后续步骤 (VI)。