解释:适合可解释的模型。 讲解黑匣子机器学习

时间:2024-02-23 21:10:35
【文件属性】:

文件名称:解释:适合可解释的模型。 讲解黑匣子机器学习

文件大小:867KB

文件格式:ZIP

更新时间:2024-02-23 21:10:35

machine-learning ai scikit-learn artificial-intelligence transparency

InterpretML-Alpha版本 起初,机器是在黑暗中学习的,而数据科学家则在虚空中挣扎着解释它们。 让它发光。 InterpretML是一个开源软件包,在一个平台下融合了最新的机器学习可解释性技术。 使用此软件包,您可以训练可解释的玻璃箱模型并解释黑箱系统。 InterpretML可帮助您了解模型的整体行为,或了解各个预测背后的原因。 可解释性对于以下方面至关重要: 模型调试-为什么我的模型会犯此错误? 检测公平问题-我的模型有区别吗? 人与人工智能的合作-我如何理解和信任模型的决策? 合规性-我的模型满足法律要求吗? 高风险应用-医疗保健,金融,司法,... 安装 Python 3.6+ | Linux,Mac,Windows pip install interpret 介绍可解释的助推器(EBM) EBM是Microsoft Research 开发的可解释模型。 它使用现代的机器学习技术,例如装袋,梯度增强和自动交互检测,为传统GAM(通用添加模型)注入新的活力。 这使得EBM的准确性与最新技术(如随机森林和梯度增强树)一样准确。 但是,与这些黑盒模型不同


网友评论