原文标题:CogMG: Collaborative Augmentation Between Large Language Model and Knowledge Graph
原文作者:Tong Zhou, Yubo Chen, Kang Liu, Jun Zhao
发表会议:Association for Computational Linguistics (ACL)
原文链接:https://arxiv.org/abs/2406.17231
主题类型:知识图谱,大语言模型
笔记作者:ALKA
主编:黄诚@安全学术圈
大语言模型在解答问题方面的应用激增,但与此同时,大语言模型很容易产生含糊不清的内容和与事实不符的信息,然而幸运的是,LLMs可以通过引用外部知识源和知识边缘图来缓解幻觉 ,从而提升其推理能力,作者专注于利用知识图谱,通过知识图谱的结构化格式和对事实信息的精确封装来为大语言模型提供现实支撑。但与此同时,知识图谱在实用性场景中的应用也受到了知识覆盖面不完整和知识更新错位等挑战的制约
知识覆盖面不完整:知识图谱中明确编码的三元组不足以详尽覆盖实际质量保证场景所需的知识边缘。
知识更新错位:目前更新知识图谱的方法主要依赖于两种策略,这些用于更新知识图谱的范式具有漫无目的和看似无限的特点,因此不能完全解决知识图谱更新中的误区。
为了应对上述挑战,本文提出了一个名为CogMG的框架,用于在LLM和KG之间进行协作性增强。当一个查询超出了当前知识库的知识范围时,鼓励 LLM 明确地解构所需的知识三元组。随后,根据 LLM 参数中编码的广泛知识边缘完成查询,作为最终答案的参考。
方法的整体架构图如下所示
CogMG 框架的单次迭代包括三个步骤
首先将相应的形式化查询解构为自然语言中的子步骤。然后,LLM 调用形式语言解析工具来执行查询。该工具接收以自然语言作为输入的逻辑分解步骤,将其翻译成适合目标知识图谱的形式化查询语言,并返回查询结果。
如果成功返回结果,则整合人类偏好的详细答案。如果不成功,则明确识别并记录所需的三元组,然后再将其整合到答案中。
明确必要的知识不仅可以减轻当前输出中滚雪球效应造成的幻觉,还可以识别图谱中的知识缺口
利用外部知识验证和修改,将未命中的三元组纳入知识图谱。为了自动验证和修正这些三元组,CogMG 在非结构化语料库中搜索相关文档,并对文档和三元组之间的事实进行比较。这些文档可能来自特定领域的文本、普通百科全书或快速更新的搜索引擎,它们不仅提高了知识的事实准确性,还为人工审核提供了可相互参照的参考。
LLM 在处理稀有、长尾和特定领域知识时会遇到困难,而且其知识声明缺乏稳健性。
系统如何处理知识图中没有的查询和相关知识的处理的完整示例如下
作者从 KQA Pro 数据集中抽取问题,测试了以下三种情况
仅使用 LLM 进行回答而不使用知识图谱;
删除相关知识,利用知识的参数完成回答
更新所有相关知识,利用图表查询结果进行回答。
三种不同场景下问题回答准确性的比较结果。
论文的主要贡献有以下三点:
局限性
安全学术圈招募队友-ing
有兴趣加入学术圈的请联系 secdr#qq.com