[视频作者] AI-for-Good
[视频时长] 63:51
[视频类型] 计算机技术
随着机器学习黑盒模型越来越多地被部署在医疗保健和刑事司法等领域,人们越来越重视构建工具和技术,以便以可解释的方式解释这些黑盒模型。领域专家正在利用这些解释来诊断系统错误和黑盒模型的潜在偏见。在这次演讲中,我们将介绍我们最近的一些研究,这些研究揭示了流行的事后解释技术(如LIME和SHAP)的缺陷,并介绍了解决其中一些缺陷的新方法。更具体地说,我们将首先说明这些方法是脆弱的、不稳定的,并且容易受到各种对抗性攻击。然后,将讨论两种方案用以解决这些方法的一些漏洞——(I)基于对抗训练的框架,旨在使事后解释更稳定