文件名称:算法伦理:自治系统和人类控制的包装-研究论文
文件大小:576KB
文件格式:PDF
更新时间:2024-06-29 11:06:59
AI artificial intelligence
David Mindell 在《我们的机器人,我们自己》中指出,“对于任何看似自主的系统,我们总能找到人类控制的包装,使其变得有用并返回有意义的数据。 用国防科学委员会最近的一份报告的话来说,“没有完全自主的系统,就像没有完全自主的士兵、水手、飞行员或海军陆战队员一样。””设计和使用“人类控制的包装”意味着使道德决定——关于应该发生什么的决定。 正如“士兵、水手、飞行员或海军陆战队”的参考资料所示,这一点并不新鲜。 新的是预测分析的兴起,即使用大型数据集进行预测的过程。 预测分析极大地加剧了长期存在的问题,即如何平衡数据收集和分析的好处与隐私的价值,它的普遍性和不断增加的使用使权衡问题成为不容忽视的紧迫性。 在解决权衡问题时,仅仅解决明显令人反感的用途是不够的,例如最近来自一家名为 FaceApp 的公司的面部照片照片编辑应用程序。 当用户要求该应用程序增加照片的“热度”时,该应用程序使肤色更浅。 我们专注于在信用评级、定向广告、导航应用程序、搜索引擎页面排名和各种其他领域中广泛接受(或至少目前被容忍)的预测分析用途。 这些用途产生了相当大的好处,但它们也通过以大量误报和漏报的形式进行错误分类而带来了巨大的成本。 预测分析不仅会调查您的私人生活以构建您的个人资料,而且经常会歪曲您的身份。 社会应该如何应对? 我们的工作假设是预测分析具有显着的好处,不应消除,而且,现在消除它在政治上是完全不可行的。 因此,我们建议通过限制信息的使用和分发来在收益和成本之间进行权衡。 这些约束必须适用于范围广泛的复杂情况。 是否有现有系统通过限制信息在高度多样化的上下文范围内的分布和使用来进行相关权衡? 事实上,有:信息规范。 信息规范是不仅限制信息的收集,而且限制信息的使用和分发的社会规范。 我们专注于使用和分发限制。 这些限制在广泛的情况下建立了适当的选择性信息流。 我们认为它们为预测分析提供了一个必不可少的“人工控制包装器”。 明显的反对意见是相关规范不存在。 技术驱动的经济、社会和政治发展远远超过了规范的缓慢演变。 尽管如此,新的规范将不断发展,现有的规范将适应纵容监视。 合理的公共政策需要控制规范的演变和适应以达到理想的结果。