从研究团队IBM沃森和亚利桑那州立大学已公布的一项调查中解释的AI规划(XAIP)的工作。该调查涵盖67篇论文的工作,并绘制了该领域的最新趋势。

由ASU的Yochan实验室的Subbarao Kambhampati教授领导的团队将他们的审查重点放在了自动计划系统领域:那些产生旨在实现目标状态的行动序列(或计划)的系统。可解释的计划系统能够回答有关为何选择特定动作或动作序列的问题。该团队指出,该领域中可解释的系统可以分为基于算法的,基于模型的或基于计划的,并且尽管近年来所有类型的研究都在增加,但大多数工作已在基于模型的系统上完成。

在DARPA的2016年倡议的推动下,近年来可解释的AI(XAI)一直是活跃的研究主题。机器学习在诸如计算机视觉和自然语言处理等“感知”问题上的广泛采用,导致了针对分类器(包括LIME和AllenNLP Interpret)的可解释性技术的发展。感知是确定环境当前状态的一项重要技能,而自主系统(例如机器人,无人驾驶汽车甚至是玩游戏的AI)也必须做出决定。这些AI系统经常采用计划,从而为AI采取一系列行动以实现其目标。

可解释的AI规划(XAIP)系统能够回答有关其计划的问题;例如,计划中为何包含或未包含特定动作的原因。该团队将系统分为基于算法,​​基于模型或基于计划的系统。与最终用户相反,基于算法的解释通常对于系统设计人员调试算法最有帮助。基于计划的说明使用摘要或抽象来使用户能够理解“在较长时间范围和较大状态空间中”运行的计划。大多数研究都是基于模型的解释进行的,该模型考虑了以下事实:用户比AI具有“相当少的计算能力”,并且通常具有不同于“基本事实”的思维模型。对于这些系统,说明需要协调用户的

DARPA的XAI计划指出,可解释系统的一种动机是增强用户对AI产生的结果的信任。但是,Kambhampati的研究小组指出,解释过程也可以被“劫持”,以产生“不再是真实的,而是用户认为令人满意的任何东西”的解释。其他研究人员建议,如果要使AI和机器人在社会上有效,这种欺骗甚至可能是必要的。深度学习先驱Geoffrey Hinton淡化了对可解释性的需求,并在推特上写道: