文件名称:可解释机器学习的概念挑战-研究论文
文件大小:745KB
文件格式:PDF
更新时间:2024-06-29 22:18:09
Artificial Intelligence Algorithmic
随着机器学习逐渐进入越来越多的公共和私人生活领域,对算法可解释性的需求不断增长。 我们如何才能使最终用户更容易理解复杂统计模型的预测? 一个被称为可解释机器学习 (iML) 的计算机科学子学科已经出现,以解决这个紧迫的问题。 已经提出了许多有影响的方法,从局部线性近似到规则列表和反事实。 在本文中,我重点介绍了该领域作者在很大程度上忽视的三个概念性挑战。 我认为绝大多数 iML 算法都受到以下问题的困扰:(1)关于其真实目标的模糊性; (2) 无视错误率和严格测试; (3) 强调产品重于过程。 每一点都是根据认识论和科学哲学中的相关辩论而详细阐述的。 考虑了来自 iML 的示例和反例,展示了未能承认这些问题如何导致违反直觉和潜在误导性的解释。 如果不更加关注 iML 的概念基础,该领域的未来工作注定会重蹈覆辙。