我们可以通过情景学习来编辑事实知识吗?
Abstract
之前的研究表明,像 GPT 这样的大型语言模型 (LLM) 在其参数中存储了大量事实知识。然而,存储的知识可能是错误的或过时的。传统的知识编辑方法通过对包含特定知识的文本进行微调来完善LLMs。然而,随着LLMs规模的不断扩大,这些基于梯度的方法带来了巨大的计算成本。模型即服务的趋势也使得修改黑盒 LM 中的知识变得不可能。受到上下文学习(ICL)这种基于演示上下文而无需参数更新的新范式的启发,我们探索 ICL 是否可以编辑事实知识。为了回答这个问题,我们对 ICL 策略进行了全面的实证研究。实验表明,与 GPT-J (6B) 上基于梯度的方法相比,上下文知识编辑 (IKE) 在没有任何梯度和参数更新的情况下实现了有竞争力的成功率,但副作用要少得多,包括减少对相似但不相关事实的过度编辑以及更少的对先前存储的知识的遗忘。我们还将该方法应用于具有数十或数百个参数的大型 LM,例如 OPT-175B,这显示了我们方法的可扩展性。该代码可在“https:// github.com/PKUnlp-icler/IKE.”
1 Introduction
预训练语言模型 (LM) 为 NLP 研究树立了新范式,并席卷了所有现有的 NLP 基准。由于取得了令人鼓舞的成果,研究人员为 LM 赋予了满足现实世界需求的新技能,例如使用网络浏览器(Nakano 等人,2021)、编码(Chen 等人,2021)、玩策略游戏(FAIR 等人) al.,2022)和对话人才(OpenAI,2022、2023)。然而,语言模型的广泛应用也引发了人们对其生成虚假内容的陷阱的日益关注(Elazar et al., 2021;Cao

等人,2021a)、过时(Dhingra 等人,2022)、有偏见(Sheng 等人,2019;Zhao 等人,2021)和攻击性(Gehman 等人,2020)。为了缓解这一缺陷,旨在修改语言学习者所学到的知识的知识编辑(图 1)引起了越来越多的关注(Mitchell 等人,2022a;Meng 等人,2022a)。知识编辑的目标有两个:概括性和特异性。前者需要泛化到描述相同知识的各种提示,后者则不需要干扰其他不相关的知识。
以往的知识编辑方法主要采用<span style="background-color: #2ea8e580">基于梯度的方法来修改特定的模型参数以获得所需的模型行为</span>(Mitchell等,2021;Meng等,2022a),例如在选举后更新总统。然而,<span style="background-color: #5fb23680">目标知识神经元的识别通常需要计算开销很大的梯度估计</span>(Dai et al., 2022)。此外,<span style="background-color: #2ea8e580">更新的参数本身会导致超出所需版本的副作用,例如忘记以前学到的事实或对不相关事实进行过度编辑</span>。先前的研究表明,当大规模 LM (LLM) 作为黑盒服务部署时(Sun 等人,2022),<span style="background-color: #2ea8e580">对其参数的微小修改可能会极大地影响其最终用户的行为</span>。因此,传统方法仍然受到编辑 LLM arXiv:2305.12740v1 \[cs.CL] 202 年 5 月 22 日的困扰,因为这些限制阻碍了可扩展性和通用性。
最近,情境学习(ICL)(Brown et al., 2020)已成为指导LLMs执行复杂任务的新范式。在 <span style="background-color: #2ea8e580">ICL 中,任务描述和演示示例以自然语言表示以形成上下文,并且以上下文为条件的 LM 预测根据预定义规则转换为答案</span>(Brown 等人,2020)。通过这种方式,大型 LM 无需对参数进行任何修改即可适应各种下游任务,使其自然适合大型 LM 上的知识编辑。首先,它通过避免修改参数来减少计算开销,并消除参数更新带来的副作用的风险。最重要的是,<span style="background-color: #2ea8e580">ICL 为人类提供了一种可解释的方式来校准 LM 行为</span>。尽管有这些优点,ICL 是否适用于知识编辑仍不清楚。
在本文中,我们研究了 ICL 为LLMs进行知识编辑的潜力。我们专注于两个目标:(1)确保泛化,以便大型语言模型可以泛化到多个文本表面以获取更新的知识;(2)通过对目标知识事实进行准确修改,同时保留其他不相关事实,确保特异性。为了同时实现这些目标,我们设计了演示格式和组织策略,以构建合适的上下文学习演示,以指导LLMs的知识编辑。我们定义了三种类型的演示格式化模板,包括<span style="background-color: #ff666680">(i)复制,旨在将新事实注入语言模型; (ii) 更新,提高注入知识事实的泛化能力; (iii) 保留,指导语言模型保留不相关的知识事实。此外,为了充分利用 ICL 进行知识编辑的潜力,我们从训练语料库中检索相关知识事实作为演示输入。</span> GPT-J(6B)知识编辑基准的实验结果表明,所提出的上下文学习知识编辑(IKE)在强基线下实现了整体可比的知识编辑性能。例如,IKE 的编辑成功率绝对优于 MEND(Mitchell 等人,2021)10%,并且在特异性方面比 ROME 获得了 30 分的增益(Meng 等人,2022a)。由于没有参数修改,IKE适用于OPT-175B等LLM,并表现出更好的记忆能力,即编辑后,近50%的知识事实保留了较高的概率。进一步的分析表明,<span style="background-color: #ff666680">演示选择和保留演示有助于特异性,而更新演示则提高泛化能力</span>。最后,我们讨论了IKE在实际场景中应用时可能遇到的潜在挑战,并提供了相应的讨论。总的来说,这项研究的贡献有四个方面:
- 据我们所知,这项工作代表了对 ICL 编辑 LM 知识潜力的首次系统探索。
- 我们对ICL 策略进行全面的实证研究,并分析这些策略如何影响最终性能。
- 通过设计适当的演示格式和组织策略,IKE 可以以更少的计算开销和副作用实现相当的成功率。
- 我们研究将IKE 应用到现实场景的可行性并讨论潜在的挑战。
2 Related Work
知识编辑方法 最近关于知识编辑的研究大多是基于炒作网络或基于归因的。基于炒作网络的方法训练超网络以获得某些编辑的梯度变化。例如,曹等人。 (2021b)使用超网络来预测测试时的参数变化,这会改变事实,同时保留不相关的事实。 MEND(Mitchell 等人,2022a)学会了将原始微调梯度转换为梯度的低秩分解。米切尔等人。 (2022b)使用编辑记忆检索器和反事实模型来生成,而不更新基本模型的参数。基于归因的方法定位神经网络中某些知识的神经元激活,仅更新相关参数。戴等人。 (2022)使用基于梯度的归因评估了不同神经元对特定知识的贡献,并通过用缩放的嵌入向量替换多层感知器(MLP)权重矩阵中的列来更新或删除事实。孟等人。 (2022a)定位了表达事实知识的单层,并通过在MLP模块中编写新的键值对来编辑这些事实知识。
知识编辑基准 一些知识编辑基准通常用于评估编辑方法的有效性和特异性。对于 BERT 风格的模型,通常采用事实检查数据集 FEVER (Thorne et al., 2018) 和问答数据集 zsRE (Levy et al., 2017)。在 FEVER 中,每个 x 是一个声明,每个 y 表示相应声明的有效性。在 zsRE 中,每个 x 都是关于事实的问题,每个 y 都是答案,而 xloc 询问与 x 无关的事实。对于 GPT 风格的模型,Mitchell 等人。 (2022a) 引入了维基文本编辑数据集,该数据集要求模型完成带有编辑延续的段落,同时每个标记的分布与不相关的段落 xloc 应保持不变。在我们的实验中,我们使用了一个更具挑战性的 QA 数据集,称为 COUNTERFACT(Meng 等人,2022a)。在 COUNTERFACT 中,问题 x 的编辑答案 y 有时可能与现实世界反事实,并且不相关的超出范围的样本 xloc 比 zsRE 中的困难得多,这使得模型更难预测所需的答案。此外,预先训练的LLMs很难捕获这些所需的事实,从而避免了LLMs在编辑之前了解这些知识的影响。
情境学习 情境学习 (ICL) 是一种免训练范例,可从输入情境中串联的演示中学习。给定相关示例和查询,模型通过类比学习来做出预测(Brown 等人,2020;Liu 等人,2022)。现有的知识编辑方法需要重新计算梯度或者以廉价的方式计算并执行这样的知识编辑。斯等人。 (2022)首次探讨了情境学习是否可以更新LLMs的知识,并表明结合各种演示可以提高知识编辑的成功率。然而,他们只关注GPT-3,而没有深入探索知识编辑的潜在能力和副作用。
3 Task Formulation
知识编辑的目标是通过最大化概率 PM(y*|x*) 来将新事实 (x*, y*) 注入到 LMM 中。 x*是探究M中事实知识的提示(例如,美国总统是),y*将是编辑目标乔·拜登。知识编辑还需要概括性和特异性:
- 泛化:对于编辑中的提示x的范围 Dx*(即与新事实相关的提示),x ∈ Dx* 的预测也应该更新为 y*。例如,预测问题:谁是美国总统?答:将更新为乔·拜登。
- 特异性:对于提示x 超出编辑范围,x / ε Dx*,x 的预测应该是它原来的预测yo。例如,俄罗斯总统的预测应该保留。
4 Method: IKE
4.1 In-Context Learning
情境学习(ICL)是由 Brown 等人提出的。 (2020)用于小样本学习。对于大型语言模型 M,ICL 的目标是根据 k 个演示 C = {(x1, y1),… 来预测输入 x 的 ˆ y ∈ Y,而无需进行任何参数更新。 。 。 ,(xk,yk)}。语言模型 M 预测给定 x 的 y ∈ Y 的概率:PM(y | x, C)。更具体地说,ICL 使用模板 T 将输入和标签转换为自然语言文本。以情感分析为例,输入 xi 和标签 yi 的上下文演示将转换为句子:xi。情感:yi,那么语言模型 M 将在给定 T (x1, y1), 的情况下预测 y ∈ Y。 。 。 ,T(xk,yk),T(x,)。
4.2 In-Context Knowledge Editing
当我们将目标事实 f = (x*, y*) 注入 LM 时,我们将构造 k 个演示 C = {c1,…。 。 。 ,ck}。知识编辑的目标是当提示x在目标提示x*的编辑范围内时最大化P(y*|x,f,C),并且最小化P(y*|x,f,C)之间的距离。 | x, f, C) 和 P (y | x) 当 x / ∈ Dx* (特异性目标)时。 LM 应确定探测提示 x 是否在 x* 的编辑范围内,即 Dx*。为了通过 ICL 实现这些目标,适当的演示输入至关重要。我们进一步将以f为目标的知识编辑演示构建分解为两个子问题:
(i)如何设计每个演示的格式; (ii) 如何选择上下文演示并对其进行排名(Dong 等人,2023)。
4.2.1 Demonstration Formating
每个演示 ci 都包含一个新事实 fi = (xi*, y* i )、一个探测提示 xi 及其预测 yi。上下文演示应该教会 LM 复制、更新和保留针对不同提示的预测:
- 复制:要将新事实注入 LM,第一步是教他们将目标提示的预测复制到新事实中。在复制演示中,xi = xi* 且 yi = y* i。
- 更新:知识编辑不仅仅是教语言模型重复新事实。为了知识编辑的泛化,编辑范围内提示的预测也应该更新。在更新演示中,xi ∈ Dx* i 且 yi = y* i。
- 保留:出于知识编辑的特殊性,语言模型应在超出范围的提示中保留其原始预测。在保留演示中,xi / ∈ Dx* i 和 yi 应该是它的原始答案 yo i。 IKE 的模板 T 将 f 、 x 和 y 转换为自然语言:T (f, x, y) = New Fact: f 。提示:xy。详细信息列于§A。
4.2.2 Demonstration Organization
当我们在 LM 中编辑知识事实 f 时,我们构建 k 个演示 C = {c1,… 。 。 , ck} 来自训练语料库。哪些演示适合上下文编辑?我们关注刘等人。 (2022)使用无监督检索器来选择 k 个最近邻居。更具体地说,我们使用预训练的句子编码器 E 对新事实 f 的提示 x* 及其原始答案 yo 和目标预测 y* 进行编码。这

训练语料库中的记录将以相同的方式进行编码,并根据余弦相似度检索 k-NN 事实。上下文演示的排名还取决于余弦相似度:cos(c0, f ) < cos(c1, f ) < 。 。 。 < cos(ck, f ),其中 c1, . 。 。 , ck 从左到右放置在上下文中。
4.3 Discussion:Gradient-based methods and gradient-free methods
之前的参数更新方法会调整LM M的参数θ。它们根据梯度∇θ − log PM(y*|x*)计算Δθ,将基础模型Mθ更新为编辑后的M′θ+Δθ。然后将通过 PM′(y | x) 评估编辑方法。相反,上下文学习通过为新事实 f = (x*, y*) 构建演示 C 来修改 M 中的知识事实,然后通过 PM(y | x, f, C) 来评估编辑方法。将 PM(y | x, f, C) 与 PM′(y | x) 进行比较,可以发现: (i) ICL 不需要对目标事实进行梯度估计,并且在知识编辑后保持原始 LM M 不变。这大大减少了计算开销,从而使编辑适用于具有万亿级参数的LM,并消除了修改参数的副作用。 (ii) 演示 C 以自然文本表示,比显着参数更新 Δθ 更容易解释。它提供了一个人类可理解的界面来校准模型行为。我们在表 1 中重点介绍了这两种方法的特点。
5 Experiment
在本节中,我们通过实验来回答以下研究问题:
- 与基于梯度的方法相比,IKE 的性能如何?
- 演示设计策略如何影响IKE 的性能
- LM 的规模如何影响IKE 的性能,IKE 能否扩展到具有数百或数千亿参数的大型语言模型?
知识编辑有哪些副作用?与其他参数更新方法相比,IKE 产生的副作用是多还是少?
我们首先介绍实验设置,包括比较基线方法、评估基准和不同尺度的语言模型,用于知识编辑(第 5.1 节)。然后我们分析了§5.2中的主要知识编辑结果以及情境学习知识编辑的影响因素(§5.3)。
5.1 Experimental Setting
我们的目标是评估上下文知识编辑与参数更新方法相比的性能。我们还对不同大小的语言模型进行了实验,以探索上下文知识编辑的扩展能力。
5.1.1 基线
遵循之前的知识编辑方法,我们还选择 GPT-J (6B) 作为我们的主要评估骨干。比较的基线包括:
FT 在描述编辑事实的文本上微调基本模型,而无需通过应用 Adam 提前停止来训练新的模型编辑器。
MEND MEND(Mitchell 等人,2022a)通过使用预训练的超网络将权重矩阵分解为rank-1 形式来转换更新事实的微调梯度。
ROME ROME(Meng et al., 2022a)学习定位一组特定 MLP 模块的事实检索,并通过直接在 MLP 模块中写入新的键值对来更新知识。
PROMPT 探索上下文演示如何影响 IKE 的性能。我们直接使用新事实作为上下文,通过 P(y|x, f ) 来探测 LM,其中 f = (x*, y*)。实施细节见§A
5.1.2 Evaluation Setup
模型 为了探索 LM 的规模将如何影响上下文知识编辑的有效性,我们在五个类似 GPT 的自回归转换器语言模型上评估了上下文知识编辑,其规模范围从 1.5B 到 175B 参数:
- GPT- 2 XL (1.5B)(Radford 等人,2019),GPT-2 的 15 亿参数版本。
- GPT-NEO (2.7B)(Gao 等人,2021),EleutherAI 发布的类 GPT-2 因果语言模型的 27 亿参数版本。它是在专门为 LLM 训练设计的 Pile 数据集上进行训练的。
- GPT-J (6B)(Wang 和 Komatsuzaki,2021),一种在具有 60 亿个参数的 Pile 上训练的自回归文本生成模型。
- GPT-NEOX (20B)(Black 等人,2022),一个在 Pile 上训练的 200 亿参数自回归语言模型。
- OPT (175B)(Zhang 等人,2022),开放式预训练 Transformer,由 MetaAI 创建,具有 1750 亿个参数。
基准 我们主要评估 COUNTERFACT 的基线(Meng et al., 2022a),这是一个具有挑战性的基准,适用于具有困难编辑目标和难以区分编辑范围的类 GPT 因果语言模型。它包含 21, 919 条不同关系和实体的记录。每条记录的目标是将知识三元组(s*,r*,oc)更改为(s*,r*,o*),其中s*和r*由目标提示x*描述。该记录还包含释义提示 P P 作为范围内提示和邻域提示 P N ,即与目标三元组共享同一对象的知识三元组(s′,r*,oc)作为范围外提示。我们关注孟等人。 (2022a) 使用前 2000 条记录作为测试集,其余记录分为训练集。 COUNTERFACT 的详细信息在 §B 中列出。
指标 知识编辑的性能从三个方面来衡量(有效性、泛化性和特异性)。
- 功效 通过功效得分 (ES, E[I[P(o*) > P(oc)]]) 和功效幅度 (EM, E[P(o*) − P( oc)])。
- 泛化 通过释义衡量释义提示的译后编辑准确性分数 (PS) 和释义幅度 (PM)。 PS和PM的定义与ES和EM类似。
- 特异性 通过邻域得分 (NS, E[I[P(oc) > P(o*)]]) 和邻域量级 (NM, E[P(oc) − P(o*)]) 来衡量邻域提示的准确性,因为邻域提示 (s′, r*, oc) 与目标提示共享相同的原始对象,并且这些事实不应被编辑。
我们也关注孟等人。 (2022a) 将 ES、PS、NS 的调和平均值报告为分数 (S)

5.2 Main Results
表2的顶行显示了不同方法的知识编辑结果。我们的研究结果是:(i)所有方法在功效方面都表现良好,正如它们接近的 ES 分数所示。然而,在普遍性和特殊性方面存在显着差异。例如,FT 获得了较高的 ES (99.9) 和 PS (96.4) 分数,但在特异性方面表现不佳。这凸显了知识编辑中平衡泛化和特殊性的挑战。 (ii) 在基线方法中,ROME 在所有三个指标方面总体表现最好,但计算开销较高。由于这一限制,它不适用于诸如 OPT175B 等更迫切需要知识编辑的大型 LM。 (iii) 所提出的方法 IKE 在特异性方面表现出色,但在有效性和泛化方面也表现良好。例如,IKE 在 GPTJ 上获得了与 ROME 相当的总分(89.6 比 91.5),同时不需要任何参数对 LM 的修改。这种计算优势使得在 OPT-175B 等大型 LM 上执行知识编辑成为可能,其中 IKE 比 PROMPT 明显提高了 36.0 个点。这些结果证明了 IKE 在知识编辑方面的有效性、效率和可扩展性。

5.3 Analysis
在这一部分中,我们讨论不同演示策略的效果、跨尺度模型的 IKE 可扩展性以及知识编辑引入的副作用。
5.3.1Ablation on Demonstration
演示次数 演示次数是 ICL 性能的影响因素之一 (Brown et al., 2020)。我们研究了演示数量如何影响第二阶段的 IKE 性能

表 3 中的块。在没有任何演示的情况下,PROMPT 因其低 NS(37.9)而表现出过度泛化,表明它只是学习复制预测。给定一些演示(4 或 8),IKE 在有效性和泛化性方面比 PROMPT 表现更差,因为它开始区分提示是否在编辑范围内。随着演示次数的增加,IKE逐渐学会平衡通用性和特殊性,实现更好的权衡。
演示组织 先前的研究(Liu et al., 2022; Rubin et al., 2022; Lu et al., 2022)表明,包括演示选择和演示排序(Dong et al., 2023)在内的演示组织对于 ICL 也至关重要。我们的建议遵循刘等人的简单无监督方法。 (2022),根据输入提示和演示之间的余弦相似度从训练语料库中检索和排序演示。在表 3 第三块中的两项消融研究中,我们发现删除选择程序(即随机选择)会导致 NS 分数从 77.0 明显下降到 45.0,这表明正确提示选择的重要性。然而,随机排序带来的性能差异可以忽略不计。我们推测这是因为所选的提示与目标事实高度相关,并且基于 Transformer 的 LM 中的注意力机制可以很好地处理长程依赖性。我们将进一步的改进作为未来的工作。
演示格式 我们进一步检查演示类型的影响,包括复制、更新和保留。如表 3 中的第四个块所示,删除复制演示会导致性能轻微下降,因为即使没有复制演示,LM 也可以轻松复制演示中的内容。相反,更新演示在教导 LM 修改其知识方面发挥着重要作用,删除更新演示后泛化得分要差得多。此外,删除保留演示会导致特异性急剧下降(通过 NM 分数衡量),从 35.2 降至 -47.6。这表明保留演示对于帮助 LM 识别超出范围的事实并维持对这些提示的原始预测至关重要。
5.3.2IKE Benefits from Model Scaling
我们进一步评估了 COUNTERFACT 上的 IKE,针对不同尺度的五种类似 GPT 的因果语言模型。正如之前的实验表明,所有方法都表现出很高的知识编辑功效,因此我们重点关注大型语言模型的泛化性和特异性,因为这些指标的定义是为了衡量可能对最终用户造成巨大影响的副作用。如表 4 所示,我们发现 IKE 的性能与 LM 的规模正相关,并且最大的 OPT-175B 实现了最强的泛化和特异性结果。这是令人鼓舞的,因为 IKE 的性能可以随着 LM 规模的增加而增强,使其可插入未来更强大的 LM 主干。
5.3.3Resilience to Over-Editing
过度编辑是知识编辑的常见副作用,指在编辑目标事实时对超出范围的事实产生影响。尽管 COUNTERFACT 已经包含由 (s′, r*, oc) 组成的范围外提示,它们与编辑目标共享相同的关系 r 和原始对象 oc: (s*, r*, oc) → (s*, r*, o*),我们采用Dong等人提出的对比知识评估(CKA)对过度编辑进行更全面的评估。 (2022)。具体来说,对于一个三元组(s,r,o),CKA将r替换为其他相似但不相关的关系r′,并比较PM(o | s,r)和PM(o | s,r′)来评估M是否知道事实(s,r,o)。受此启发,我们将(s*,r’,o*)视为相似但不相关的提示,并考虑P(o*|s*,r’)的变化,发现P(o*|s*,r’ )在注入(s*,r*,o*)后也会增加。为了进一步探索不同方法中的过度编辑,我们考虑 CKA 分数 P(o*|s*, r*)/Er′∈RP(o*|s*, r′)。


CKA评估结果如表5所示。如果CKA得分小于预定义阈值α,则正确事实的困惑度为输给了对比虚假事实的困惑,结果证明这是一次编辑失败。尽管所有基线在编辑功效方面都表现良好,但在更严格的对比评估下它们往往过于概括。 ROME 的平均 CKA 得分最低,错误率最高,这表明它识别与目标提示共享同一主题的范围外提示的能力较差。 IKE 对过度编辑的影响较小。
5.3.4Maintenance for Original Knowledge
我们得出的结论是,先前存储在语言模型中的事实知识将在知识编辑过程中被删除或遗忘。我们在表6中考虑编辑前后P(oc|s*, r)的变化。结果表明,所有编辑方法都会导致P(oc|s*, r*)的下降。罗马几乎忘记了所有最初的事实。如果我们想要纠正 LM 的预测,就必须擦除原来的事实知识。然而,如果我们想更新语言模型的预测,例如更新美国总统是从唐纳德·特朗普到乔·拜登的预测(时间感知关系),那么旧知识 2017 年,美国总统是唐纳德·特朗普不应该被忘记。
为了评估编辑中这种时间感知知识的遗忘,我们基于 TEMPLAMA (Dhingra et al., 2022) 构建了一个小型基准,以进一步表明 IKE 比 §C 中的其他基准可以导致更少的知识遗忘。
6 Discussions
在之前的实验中,我们遵循孟等人之前研究的设置。 (2022a)并主要评估编辑单个事实以进行公平比较的方法。我们的结果表明 IKE 可以获得更好的泛化性和特异性,副作用更少,并且不需要修改参数。尽管如此,为了探讨可行性在将 IKE 应用到现实场景中时,有几个重要问题尚未得到充分探索:(1) IKE 能否扩展以容纳更多的编辑事实?考虑到语言模型的输入长度有限,在上下文中包含大量的编辑事实可能是不可行的。 (2) IKE 能否适应处理不同格式和域的事实和提示?在IKE中,事实和提示的域和格式保持一致。然而,在现实世界中,事实和提示有多种形式。米切尔等人。 (2022b)提出了一种基于检索的方法来编辑多个知识事实。类似地,具有外部存储器来存储事实编辑的 IKE 可以检索正确的事实编辑来构建给定提示的上下文,从而避免永远在上下文中预先添加所有事实编辑。为了验证 IKE 对不同形式的事实或提示的泛化,我们用维基百科中的中性数据替换了事实,或者用生成提示替换了提示,提示 LM 生成与新对象相关的文本。详细讨论可以在§D 中找到。
7 Conclusion
在这项工作中,我们研究了上下文学习在大规模语言模型上进行知识编辑的潜力。具体来说,我们设计了提示LM的演示策略,包括三种类型的演示格式和基于检索的演示组织。我们表明,所提出的方法 IKE 在不需要任何参数修改的情况下实现了竞争性知识编辑功效,并保持了良好的泛化和特异性性能。进一步的分析证明了它对于大型 LM 的可扩展性、对过度编辑问题的弹性以及通过多轮编辑维护时间感知知识事实的能力。我们的结果证明 ICL 在 LM 知识编辑方面具有巨大潜力。