文件名称:可解释机器的直觉吸引力-研究论文
文件大小:466KB
文件格式:PDF
更新时间:2024-06-09 00:16:24
algorithmic accountability explanations law and
算法决策已成为莫名其妙的决策的代名词,但是是什么使算法难以解释呢? 本文研究了什么使机器学习与其他制定决策规则的方法脱颖而出,以及这些属性带来的解释问题。 我们证明了机器学习模型可以是不可理解的和非直觉的,并且它们是相关的但截然不同的属性。解释性的呼吁将这些问题视为一个问题并且是相同的,但是将这两个问题解开则表明它们需要非常不同的响应。 处理不可告人性需要对规则进行明智的描述。 解决非直觉性需要提供令人满意的解释,以解释规则为何如此。 诸如《公平信用报告法》(FCRA),《平等信用机会法》(ECOA)和《通用数据保护条例》(GDPR)之类的现有法律,以及机器学习中的技术,几乎都集中在难解性问题上。 虽然这样的技术可以使机器学习系统遵守现有法律,但如果目标是评估决策制定的依据是否可辩护,那么这样做可能无济于事。在大多数情况下,直觉是描述性描述之间未认可的桥梁帐目和规范性评估。 但是,由于机器学习通常因其发现违反直觉的统计关系的能力而受到重视,因此依靠直觉并不是令人满意的方法。 因此,本文主张采用其他规范性评估机制。 要知道规则为何如此,就必须寻求对模型开发背后的过程的解释,而不仅仅是对模型本身的解释。