转自:https://dl.ccf.org.cn/lecture/lectureDetail?id=4663454624843776。
陈华钧,浙江大学阿里巴巴知识引擎联合实验室负责人。
摘要:知识图谱表示的向量化使得我们可以实现更易于泛化的可微分推理。然而, 基于表示学习实现的知识图谱推理和链接预测丢失了传统符号计算方法的可解释性,即:模型无去对基于向量计算或神经网络训练后得出的推理结论进行解释,导致只知结果但不知为什么。在很多真实的应用场景下,黑盒模型的可解释性缺乏导致很多应用不得不放弃采用表示学习方法 。本报告尝试探讨知识图谱与表示学习的可解释性之间的关系,具体针对基于表示学习实现的知识图谱推理的可解释性问题提出一些研究思路和解决方法,并结合真实的应用场景介绍相关的一些实践。
知识图谱是现代人工智能领域中的一个关键组成部分,它通过图结构来表示现实世界中的实体及其相互关系,从而形成一种能够捕获复杂关联信息的数据模型。陈华钧教授在CNCC2019上的演讲主要关注了知识图谱推理的可解释性问题,这是当前深度学习和知识图谱结合应用中的一大挑战。
知识图谱的目的是通过图结构来表达实体之间的关系,以及沉淀特定领域的知识。这种结构使得知识图谱在搜索引擎优化、智能问答系统、自然语言处理和决策支持等领域有着广泛应用。知识图谱既具有比纯图形更丰富的表达能力,又避免了形式逻辑的过度复杂性,提供了一个平衡的技术维度。
知识图谱推理是机器理解并运用知识进行推断的过程,可以简化为事实预测、关系推理等任务。例如,链接预测用于预测未被发现的关系,因果推理则涉及到事件之间的因果关系,而基于知识图谱的问题回答和推荐系统都可以视为推理问题的实例。
推理方法分为两大类:演绎推理和归纳推理。演绎推理主要基于本体公理(规则),适用于图谱的TBox或Schema部分。简单逻辑推断相对直观,但随着公理数量增加,复杂度会显著上升。归纳推理则依赖于图结构和规则学习,如PRA和AMIE算法,它能提供对推理结果的洞察性解释,但面临效率和结构稀疏性问题。
近年来,表示学习在知识图谱推理中发挥了重要作用,通过向量化表示使模型更具泛化能力。然而,这种方法通常被视为“黑盒”,其推理过程难以解释,这在许多需要透明度和可解释性的应用场景中成为限制。陈华钧教授的研究试图解决这一问题,探索如何在保持表示学习优势的同时,提高知识图谱推理的可解释性。
表示学习为基础的推理方法在处理大量关系或三元组时效率较高,但其解释性问题是目前研究的重点。如何在保留模型的预测准确性和效率的同时,提供对推理过程的理解,是推动知识图谱推理技术发展的关键。这可能涉及到开发新的模型架构、学习算法,或者寻找将传统符号计算与深度学习相结合的方法。
陈华钧教授的报告提出了知识图谱推理的可解释性挑战,并分享了一些研究思路和解决方案,这对于推动知识图谱在更广泛的应用场景中落地具有重要意义。随着技术的进步,我们期望看到更多兼顾性能和可解释性的知识图谱推理方法出现,从而增强人工智能系统的可信度和应用价值。