研究成果登上Science子刊 DMAI新一代人工智能技术获认可
2019-12-29

随着我们进入人工智能的新时代,智能机器需要以人类用户可以理解的方式解释其决策和行动,这是人工智能和机器人系统未来被广泛应用的关键。什么样的解释形式能促进人机信任? 近日,DMAI创始人朱松纯教授实验室团队验证了机器人任务中的可解释性,登上Science子刊《Science Robotics》,吸引全球多家主流媒体报道。

​可解释的人工智能使人机建立信任

这项新的研究探讨了何种解释形式能最大程度获取人类参与者的信任,与此同时提出了一个从“功能性”与“机制性”两个角度出发而设计的机器人系统解释框架。此机器人系统不仅能从人类的演示中学习到如何打开演示用的药瓶,而且能成功打开未曾见过的新药瓶。

研究人员对150名参与者进行了一项心理学实验,以检验什么形式的解释最能促进人类用户对机器人的信任。实证发现揭示了学习以人为本的模型(human-centric model)的重要性,即要让机器人系统对人类用户而言是可解释的、值得信任的和可预测的。结果显示,同时获得符号性和触觉性解释的群体对机器人的信任度最高。在随后展开的一项实验中,准确预测了机器人行动的也是上一轮实验中最信任机器人的群体。

研究发现,全面且实时可视化的机器人内部决策过程能更有效地促进人类的信任。信任是合作的基础之一,理解机器人如何提供促进信任的解释是迈向人机协作的重要一步。在当下,信任意味着人与机器对彼此能力的理解。

此外,最适合传递信任的解释形式不一定对应于有助于实现最佳任务性能的模型组件。这种差异表明:机器人学界需要通过结合不同的模型来同时提高机器人执行任务的性能和人类对机器人的信任度。

研究团队核心成员在接受媒体采访时表示,“只要我们能建立一个透明的、可解释的人工智能系统,使人与机器之间建立信任,我们认为人与AI就可以共同协作,提高人们的生活质量。”

XAI的影响和应用

据悉,该项工作是朱松纯教授团队可解释人工智能研究的重要成果之一,旨在实现“第三代人工智能系统”。在此系统中,机器应能理解其运行的上下文和环境,并随着时间的推移构建其内在的解释模型,使其能够描绘和刻画真实世界的现象。

当下流行的深度学习算法虽然带来了人工智能应用的繁荣,但仍属于“第二代人工智能系统”,即根据大量训练数据来构造模型。由于缺乏可解释性,该系统并没有获得人类的信任,成为人工智能进一步融入社会、走进日常生活所面临的一大障碍。

朱松纯教授指出:“机器过去是完全按照其预期的工作而设计的,并且只能在人工控制的受限工作空间内进行。”随着人类进入人工智能的新时代,将越来越依靠机器做出决策和提供建议,但机器目前还无法向人类用户解释这些决策和行为,这使得人工智能和机器人技术很难被广泛应用在关键任务上。

据DARPA官方资料介绍,与或图模型(And-Or-Graph,AOG)是有希望的一类第三代AI系统。

本图片来源于DARPA官方资料

在过去的15年里,朱松纯及林倞教授领衔的DMAI中国创始团队一直致力于计算机视觉、机器人技术和人工智能的AOG表征和建模。本文论述的工作表明,该模型既具有很强的实时解释能力,又能保持优异的泛化能力

依托AOG模型,DMAI已自主研发基于产生式模型的自动出题、解题与讲题模块。系统可以自动从教材、讲义与教案等素材中构建教学知识库,涵盖经典操作、基本运算规则与基础知识,并通过归纳学习方法获取解题规则。而针对变异题型,系统将基于价值函数,在因果状态空间中自动推演出最优解题路径,所有解题路径与规则自动构建AOG表达。

目前,该方法已经运用于公司的“AI+教育”产品。与依赖于大规模题库的教辅应用不同,AI可以建立从知识点到题目的有效连接,灵活考查并自动生成相应考点试题。在交互过程中,会根据每个学生的学习状态,针对不理解的知识点自动生成新的讲题,实现真正的因材施教。

阅读论文原文:请访问:https://robotics.sciencemag.org/content/4/37/eaay4663

上一篇
强认知AI芯片获关注!DMAI受邀出席健康行业峰会
下一篇
DMAI携“强认知AI+教育”新品亮相CES 2020