近期,由IDEA研究院、微软亚洲研究院、香港科技大学等多方研究团队合作推出的Think-on-Graph技术,在深度推理领域掀起了一场革新。这一技术通过紧耦合大模型(LLM)与知识图谱(KG),成功弥补了大模型在金融、法律、医疗等领域幻觉问题上的能力短板。Think-on-Graph被证明在多个基准数据集上实现了巨大的性能提升,刷新了相关领域的性能榜单。
为了解决大模型在幻觉问题上的挑战,Think-on-Graph采用了紧耦合的新范式,将大模型作为“跑腿”与知识图谱相互协作。这一方法不仅使推理过程更加清晰有序,还提供了可追溯的推理链条。通过一个具体的例子,对比了传统大模型在推理问题上的表现与Think-on-Graph的方式,突显了其在逻辑分析和推理透明度方面的优势。
论文地址:https://arxiv.org/pdf/2307.07697.pdf
代码链接:https://github.com/IDEA-FinAI/ToG
Think-on-Graph的紧耦合范式不仅提高了大模型推理的效率,还在可解释性上有所突破。采用了Transformer的beam-search算法思路,实现了搜索剪枝和推理决策的迭代过程,有效提升了大模型推理的可解释性。此外,通过人工反馈和大模型的推理能力,Think-on-Graph还能够发现并修正知识图谱中的错误信息,弥补了大模型训练时间长、知识更新慢的缺点。
最终,在四类知识密集型任务的共9个数据集上,Think-on-Graph不仅刷新了7个性能榜单,而且在Zeroshot-RE数据集上的表现更是显著超过了传统大模型。这一研究成果为深度推理领域的发展带来了新的思路和方法,为实现大模型在各领域应用中更可靠、可解释的推理能力提供了有力支持。