当前位置:AIGC资讯 > AIGC > 正文

大模型+小模型协同处理跨文档理解任务,成本更低,性能更高

“Synergetic Event Understanding: A Collaborative Approach to Cross-Document Event Coreference Resolution with Large Language Models”

论文地址:https://arxiv.org/pdf/2406.02148

摘要

跨文档事件核指代解析(CDECR)涉及将跨多个文档引用的事件提及聚类到同一实际事件。本文提出了一种协作方法,利用大型语言模型(LLM)和任务特定的小语言模型(SLM)的能力。LLM通过提示准确全面地总结事件,然后SLM在微调过程中根据这些见解优化其对事件表示的学习。实验结果表明,该方法在各种数据集上均取得了最先进的性能,突显了其在不同场景中的有效性。

简介

事件指代消解是信息提取中的一个重要任务,尤其在跨文档事件指代消解方面存在挑战。现有工作尝试通过微调小语言模型来解决跨文档事件指代消解,但仍然面临着复杂多样的语境和学习伪特征的问题。

本文介绍了一种协作式的方法,结合了大规模语言模型和有监督序列标注模型,用于解决复杂文本中的事件关系抽取任务。该方法利用大规模语言模型的通用能力,对文本中的事件提取进行总结,然后将这些信息传递给有监督序列标注模型,以提高其对事件的理解和判断能力。实验结果表明,该方法在三个数据集上均取得了最优结果。

相关工作

CDECR早期研究使用机器学习方法和手动设计的特征,最近的神经方法利用SLM对事件提及进行编码,融合了SRL提取的不完整参数作为提及的表示。LLM在信息抽取任务中表现出色,但与监督式SLM相比仍存在差距。有研究直接使用IE任务的标记数据对LLM进行微调,但与训练SLM相比成本效益较低。

LLM和SLM的整合是一种新兴的方法,已经在一些复杂的信息抽取任务中得到了应用。这种方法的主要挑战在于如何找到合理的演示来处理NULL类型的三元组,同时也存在数据分布的偏移问题。与此不同的是,我们的方法只需要LLM执行通用任务,利用其内在能力来辅助特定任务。同时,其他研究也在利用LLM生成来辅助SLM处理CDECR任务,但这些方法需要处理多个提及对之间的关系,效率不如我们的方法。

方法

任务和基线

CDECR任务的目标是将跨多个文档的共引用事件进行分组并整合。我们将任务形式化如下:

输入:由多个文档组成的语料库,用D表示。设M表示语料库中提及的所有事件,k表示每个文档中提到的事件数,m ij表示文档i中提到的第j个事件。

输出:一组聚类,记作C。对于每一个簇Ck, ek表示簇Ck中包含的所有事件提及,ekj为簇Ck中被提及的第j个事件。

我们的基线包括两个关键的聚类模块:候选检索和成对分类。这两个模块主要使用RoBERTa编码器对上下文进行编码,并获得事件提及的矢量表示。我们将编码过程形式化如下:

对于每一个提到m ij的事件,其向量表示为:

得到的表示hij被输入到后续的神经网络中。

LLM摘要生成

为了处理各种类型的事件并从复杂的上下文中收集特定的细节,我们设计了一个两步工作流来提示LLM。第一步负责为文档上下文中不同类型的事件提取定制的信息。第二步的目的是扩展第一步输出中提到的实体的细节,因为实体细节通常分散在整个文档中。在每个步骤中,我们使用一个直接的提示来完成一个主要任务。我们的提示坚持简单的原则,避免额外的解释,以防止语义转移。与合成的单步工作流相比,我们的两步工作流保证每个步骤都专注于其主要目标,从而防止两个步骤之间的干扰。

在第一步中,我们指示LLM代理“详细说明”事件提及,而不是传统的“总结”指令。术语“阐述”意味着一种基于提及词本身概念的解释行为,强调来自文档上下文的细节支持。这表明LLM可以自动从上下文中选择任何相关的细节来支持这种解释,包括上下文单词、实体提及和事件提及。这提供了一种标准化和可行的方式来理解事件,利用LLM的内在知识和上下文理解能力,而不需要强加给LLM遵守复杂的规则。

在第二步中,我们提示LLM代理使用共同引用解析来聚合关于实体的详细信息,因为与事件相比,实体共同引用是一项更标准化的任务,并且在文档中执行它可以降低复杂性。此外,我们要求LLM根据文献的发布日期进行时间推理,进一步减少共参考证据比较中的歧义。

在这两个步骤中,我们指定了生成格式,以确保摘要中的提及范围与原始文档之间的一致性。这不仅降低了LLM的生成难度,而且有利于SLM在联合表示学习中建立两者之间的联系。

集成到最后的LLM

SLM将原始文档和生成的摘要作为输入。通过直接联合表示学习技术,新的提及向量表示可以无缝地集成到基线中。

对于提及m ij,设S ij表示生成的摘要,m ij (S)表示其中的提及。通过将原始文档d1和摘要s2连接起来,形成一个新的文档d1’。设fenc’表示新的编码器网络。它首先对新文档Di’进行编码,得到h ij和h ij (s)的向量表示,mij和mij。然后将这些向量连接起来,形成融合的提及向量表示h’ ij,它可以无缝地替换基线中的h’ ij,以进行后续操作。

联合表示学习过程可以表示为:

这种整合方法包括将原始上下文和生成的摘要连接起来进行联合表征学习,使得在相同的注意空间中相互学习彼此的上下文,从而增强对真正的参考相关术语的理解。

实验

实验设置

数据集。我们在三个CDECR数据集上进行了实验:事件参考库Plus (ECB+)、枪支暴力语料库(GVC)、和足球参考语料库(FCC)。

评估指标。我们使用包括MUC、b3、CEAF、CoNLL和LEA在内的指标进行评估。

直接用LLM预测CDECR的结构。我们使用不同的上下文学习方法(包括few-shot和zero-shot学习),在不同的上下文(如完整上下文和包含提及的句子)下测试GPT-4的性能。

结果

本文的方法并在三个数据集上取得了新的最优结果,比之前的最佳结果和改进后的基线都表现更好,尤其在 FCC 数据集上表现显著。与 GPT-4 相比,该方法利用了 LLM 的潜在通用能力,效果更好。同时,本文还比较了 LLM 在摘要和结构预测中的效率。

LLM摘要的影响

本文研究了LLM摘要在减少错误链接方面的效果。错误链接分为两种类型:误报和漏报。误报分为两个子类型:由参数引起的误报和由类型引起的误报。本文方法在减少由参数引起的误报方面表现最佳,对FCC数据集的减少约为90%。相比之下,本文方法在减少漏报方面表现较差。本文方法的有效性受到表达风格差异和缺乏必要细节的影响。与LLM改写相比,LLM摘要在所有数据集上都表现更好。

消融分析

两步流程

通过剖析执行步骤的效果,发现第二步的全局信息扩展对于提高摘要质量更为重要,特别是在FCC数据集中。将两个步骤合并成一个步骤会导致性能下降,说明将多目标任务分解成多个独立步骤是必要的。文章还提供了错误分析和生成摘要长度的比较。

GPT-4在CDECR上的表现

结果表明,使用少量示例学习和包含提及的句子作为上下文的方法(FewMIS)可以使GPT-4达到最佳性能,但仅能达到与基于词形匹配的方法相当的结果。同时,使用全文本作为上下文会导致性能显著下降。此外,零样本学习表现出更高的召回率但显著较低的精度。研究还发现,GPT-4在区分相似但非指代性事件方面存在局限性,而在基于语义的显著叙述差异的指代性事件方面也存在困难。

总结

我们设计了通用任务,以利用LLM在CDECR中的潜力,有效地弥合了LLM的通用功能与特定IE任务的复杂注释之间的差距。结果表明,通过利用LLM固有的知识和理解能力来更深入地理解事件,我们的协作方法可以减轻LLM对复杂上下文理解的挑战,最终提高性能。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

大模型 AI 能干什么? 大模型是怎样获得「智能」的? 用好 AI 的核心心法 大模型应用业务架构 大模型应用技术架构 代码示例:向 GPT-3.5 灌入新知识 提示工程的意义和核心思想 Prompt 典型构成 指令调优方法论 思维链和思维树 Prompt 攻击和防范 …

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

为什么要做 RAG 搭建一个简单的 ChatPDF 检索的基础概念 什么是向量表示(Embeddings) 向量数据库与向量检索 基于向量检索的 RAG 搭建 RAG 系统的扩展知识 混合检索与 RAG-Fusion 简介 向量模型本地部署 …

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

为什么要做 RAG 什么是模型 什么是模型训练 求解器 & 损失函数简介 小实验2:手写一个简单的神经网络并训练它 什么是训练/预训练/微调/轻量化微调 Transformer结构简介 轻量化微调 实验数据集的构建 …

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

硬件选型 带你了解全球大模型 使用国产大模型服务 搭建 OpenAI 代理 热身:基于阿里云 PAI 部署 Stable Diffusion 在本地计算机运行大模型 大模型的私有化部署 基于 vLLM 部署大模型 案例:如何优雅地在阿里云私有部署开源大模型 部署一套开源 LLM 项目 内容安全 互联网信息服务算法备案 …

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

总结

### 论文总结:《Synergetic Event Understanding: A Collaborative Approach to Cross-Document Event Coreference Resolution with Large Language Models》
**背景与目标**:
本文针对跨文档事件核指代解析(CDECR)任务提出了一种协作方法,旨在将跨多个文档提及的事件聚类到同一实际事件中。该方法利用大型语言模型(LLM)的通用能力和任务特定小语言模型(SLM)的训练优势,以期提升CDECR任务的性能。
**方法概述**:
- **LLM摘要生成**:通过设计两步工作流,第一步让LLM“详细说明”事件提及,强调从文档中选取细节进行解释;第二步利用LLM进行实体共引解析及时间推理,增强事件细节的全面性。
- **集成SLM**:将原始文档与LLM生成的摘要作为输入,通过联合表示学习技术,将两者融合为新的提及表示,提升事件表示的质量。
- **基线系统**:基于RoBERTa的候选检索和成对分类模块作为基线,将改进后的提及表示无缝集成到基线系统中以实现CDECR。
**实验结果**:
- 本方法在三个CDECR数据集(ECB+、GVC、FCC)上均取得了最先进的性能,特别是在FCC数据集上表现显著。
- 与直接使用GPT-4相比,该方法能更有效地利用LLM的潜在通用能力,减少由参数引起的错误链接,从而提高整体性能。
**消融分析**:
- 两步工作流程中的第二步(全局信息扩展)对摘要质量的提升更为重要,证明了任务分解的必要性。
- GPT-4在少数示例学习和提及句子上下文条件下表现最佳,但存在区分相似但非指代性事件的局限。
**总结与贡献**:
- 提出了利用LLM进行事件深入理解的新方法,有效弥合了LLM通用能力与复杂事件指代消解任务之间的差距。
- 通过协作机制,不仅减轻了LLM理解复杂上下文的挑战,还提升了整体CDECR任务的性能,为未来的相关研究提供了新的思路和参考。
---
**额外的学习资源**:
文中还提及了如何学习大模型AI,并分享了一个分阶段的学习计划,包括初阶应用、高阶应用、模型训练及商业闭环等内容,帮助读者从理论与实践双重角度掌握大模型AI技术,适合不同级别的学习者。通过扫描CSDN认证二维码可免费领取学习资料,助力读者成为大模型AI领域的专家。

更新时间 2024-09-13