0%

知识神经元中心之旅:语言无关知识神经元和简并知识神经元的发现

知识神经元中心之旅:语言无关知识神经元和简并知识神经元的发现

Abstruct

预训练语言模型 (PLM) 包含大量事实知识,但这些知识如何存储在参数中仍不清楚。本文深入研究了理解事实知识如何存储在多语言 PLM 中的复杂任务,并介绍了适应架构的多语言集成梯度方法,与现有方法相比,该方法成功地更精确地定位了知识神经元,并且在各种架构和语言中更加通用。此外,我们对知识神经元进行了深入的探索,得到了以下两个重要发现:(1)语言无关的知识神经元的发现,它以超越语言的形式存储事实知识。我们设计了跨语言知识编辑实验,证明 PLM 可以基于语言无关的神经元完成这项任务; (2)退化知识神经元的发现,这是一种新型神经元,表明不同的知识神经元可以存储相同的事实。功能重叠的特性赋予 PLM 强大的事实知识掌握能力。我们设计了事实检查实验,证明退化知识神经元可以帮助 PLM 检测错误事实。实验证实了这些发现,揭示了多语言 PLM 中事实知识存储的机制,并为该领域提供了宝贵的见解。源代码将公开以供进一步研究。

1 Introduction

预训练语言模型 (PLM)(Devlin 等人,2018 年;Radford 等人,2019 年;Shliazhko 等人,2022 年;OpenAI 2023;Touvron 等人,2023 年)因其卓越的性能而彻底改变了自然语言处理领域涵盖广泛的任务。这些模型在维基百科等广泛的语料库上进行训练,被广泛认为封装了大量事实知识(Petroni 等人,2019b;Jiang 等人,2020),但知识如何存储在参数中仍不清楚(Kandpal 等人) .2023)。研究知识存储机制将有助于更深入地理解和掌握 PLM 中的知识(Zhen 等人,2022 年;Zhao 等人,2023 年)。在本文中,我们对知识定位任务(Hase et al. 2023; Andreas 2022)进行了深入研究,该任务旨在确定模型参数中特定事实知识的存储位置,其中此类参数被称为知识神经元(Dai 等人,2022)。

\<img alt="" data-attachment-key="35MAP8RY" data-annotation="%7B%22attachmentURI%22%3A%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2FEYHEHWWX%22%2C%22annotationKey%22%3A%22KFEQGR8B%22%2C%22color%22%3A%22%23ffd400%22%2C%22pageLabel%22%3A%221%22%2C%22position%22%3A%7B%22pageIndex%22%3A0%2C%22rects%22%3A%5B%5B310.588%2C334.059%2C565.588%2C579.353%5D%5D%7D%2C%22citationItem%22%3A%7B%22uris%22%3A%5B%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2F77ALXKTW%22%5D%2C%22locator%22%3A%221%22%7D%7D" width="425" height="409" src="attachments/35MAP8RY.png" ztype="zimage">

最近,一些已建立的方法致力于阐明 PLM 中的知识存储机制。一种策略是基于梯度的方法(Ancona et al. 2019),它通过使用积分梯度计算每个神经元的归因得分来评估每个神经元的贡献。另一种是因果启发方法,它采用跟踪算法来跟踪模型层之间的因果影响(Cao 等人,2023)。尽管在知识本地化任务中取得了成功,这些方法仍然面临两个主要挑战:(1)缺乏针对不同 PLM 架构的通用方法:观察到事实知识出现在各种 PLM 架构中,包括自动编码模型(例如, BERT)(Devlin 等人,2018 年)和自回归模型(例如 GPT)(Shliazhko 等人,2022 年)。然而,虽然有些方法适合自编码模型并且在自回归模型中表现不佳(Meng et al. 2022a),但其他方法是专门为自回归模型设计的并且不能很好地适应自编码模型(Li et al. 2022),在跨两种 PLM 架构都表现良好的通用方法中留下了空白。(2)缺乏多层次探索多种语言:实质性知识与语言无关,当前的大型语言模型支持多语言。然而,现有的方法仅关注英语数据集,可能无法提供跨语言知识存储机制的全面见解,限制了得出多语言结论的能力。

 为了更精确地定位知识神经元,我们遵循基于梯度的方法,提出了一种新颖的知识定位方法,称为架构适应多语言集成梯度(AMIG)。<span style="background-color: #ff666680">首先,针对不同 PLM 架构中缺乏通用方法,我们设计了一种架构适配技术,使得集成梯度算法(Lundstrom、Huang 和 Razaviyayn 2022)中的基线向量在不同 PLM 架构之间普遍兼容。其次,针对多语言探索的缺乏,我们引入了多语言阈值调整技术,针对不同语言调整综合梯度计算中的阈值。</span>多语言数据集上的实验结果表明,与之前最先进的模型相比,我们的方法可以更精确地定位知识神经元。此外,我们还对知识神经元进行了深入的探索,得出了以下两个重要发现。

与语言无关的知识神经元:我们在多语言 PLM 中发现了一种新型神经元,能够跨语言存储事实知识。我们将它们命名为与语言无关的知识神经元,因为它们的存在超越了特定语言的界限。如图1a所示,这些神经元是通过将源自不同语言的知识神经元相交而获得的,封装了跨多种语言一致的知识表示。独立于语言的知识神经元可以帮助跨语言的知识编辑任务:对某些知识的单次编辑可以同时影响所有语言的相应知识。例如,如果我们将事实⟨Tanzania, Capital, Dar es Salaam⟩对应的语言无关神经元编辑为⟨Tanzania, Capital, Dodoma⟩,则该事实在所有语言中都会相应更改。我们设计实验来验证与语言无关的知识神经元的作用。与现有的跨语言知识编辑模型相比,我们的方法的编辑性能更为优越。该实验证明了我们的方法在跨语言知识编辑应用中的潜力。

  **退化知识神经元**:我们发现了一个有趣的现象,对应于一种全新类型的神经元。<span style="background-color: #ff666680">给定事实及其相应的知识神经元,知识神经元的某些子集表现出独特的属性。即使该子集中的某些元素被抑制,模型仍然可以正确地表达事实;然而,如果子集中的所有元素都被抑制,模型就无法再正确地表达事实。这一现象表明,一些知识神经元存储着相同的事实知识,模型需要激活至少一个神经元才能正确表达事实。</span>它与生物系统中的“简并”现象非常相似(Tononi, Sporns, and Edelman 1999; Mason 2015),因此我们将此类神经元命名为简并知识神经元。与冗余不同,<span style="background-color: #ff666680">简并知识神经元不能简单地删除,因为它们仅部分重叠。一个退化的知识神经元可能存储多条事实知识,删除它对特定知识没有影响,但可能会影响其他知识。</span>

 图1b说明了简并知识神经元的获取过程。具体来说,<span style="background-color: #ff666680">我们首先对知识神经元进行定位,然后对它们进行聚合和过滤以获得简并的知识神经元。</span>对于查询“坦桑尼亚的首都是”,PLM 必须激活至少一个相应的简并知识神经元来预测正确的事实 Dodoma。直观上,<span style="background-color: #ff666680">简并知识神经元的功能重叠特性赋予 PLM 对事实知识的强大理解,确保其对事实的掌握保持稳定且不易出错</span>。受此启发,我们设计了一个实验,使用简并知识神经元进行事实检查。我们的实验表明,<span style="background-color: #5fb23680">简并知识神经元可以帮助 PLM 检测错误事实,从而说明它们的存在增强了 PLM 对事实知识的稳定掌握。</span>

总的来说,主要贡献总结如下:(1)我们提出了一种新颖的知识本地化方法,称为架构适应的多语言集成梯度,它可以有效解决传统方法的两个挑战:缺乏针对不同 PLM 架构的通用方法和缺乏对多种语言的探索,从而实现知识神经元更精确的定位。 (2)我们发现了独立于语言的知识神经元,它们以超越语言障碍的形式存储事实知识。实验结果表明它们有利于跨语言知识编辑任务。 (3)我们发现了简并知识神经元,这是一种具有功能重叠特性的新型神经元,使得模型对事实知识的掌握更加稳健。实验证明它们可以帮助检测不正确的事实。

2 Methodology

图 2 示意性地展示了我们提出的框架。它由三个主要模块组成,包括知识神经元定位(模块1)、语言无关知识神经元检测(模块2)和简并知识神经元检测(模块3)。我们详细说明了每个模块。

2.1KnowLedge Neuron Localization

图 2 的模块 1 展示了知识定位模块,该模块旨在查明 PLM 中知识神经元的确切位置。使用填空完形填空任务(Petroni 等人,2019a),我们评估对 PLM 对特定事实的理解。例如,给定一个事实 ⟨Tanzania, Capital, Dodoma⟩ 以及相应的查询“坦桑尼亚的首都是”,Petroni 等人 (2019a) 描述,如果模型能够预测正确答案,则模型知道一个事实。在本研究中,我们通过引入架构适应多语言集成梯度方法来扩展此分析,以定位专门负责处理事实信息的神经元。

\<img alt="" data-attachment-key="MXWX28JU" data-annotation="%7B%22attachmentURI%22%3A%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2FEYHEHWWX%22%2C%22annotationKey%22%3A%228TICA8HS%22%2C%22color%22%3A%22%23ffd400%22%2C%22pageLabel%22%3A%223%22%2C%22position%22%3A%7B%22pageIndex%22%3A2%2C%22rects%22%3A%5B%5B49.615%2C585.462%2C563.654%2C764.885%5D%5D%7D%2C%22citationItem%22%3A%7B%22uris%22%3A%5B%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2F77ALXKTW%22%5D%2C%22locator%22%3A%223%22%7D%7D" width="857" height="299" src="attachments/MXWX28JU.png" ztype="zimage">

从数学上来说,给定一个查询 q,PLM 预测的正确答案的概率可以定义为:

\<img alt="" data-attachment-key="WXFG2TDF" data-annotation="%7B%22attachmentURI%22%3A%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2FEYHEHWWX%22%2C%22annotationKey%22%3A%22HCSPGJUY%22%2C%22color%22%3A%22%23ffd400%22%2C%22pageLabel%22%3A%223%22%2C%22position%22%3A%7B%22pageIndex%22%3A2%2C%22rects%22%3A%5B%5B55.385%2C522%2C295.962%2C544.5%5D%5D%7D%2C%22citationItem%22%3A%7B%22uris%22%3A%5B%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2F77ALXKTW%22%5D%2C%22locator%22%3A%223%22%7D%7D" width="401" height="38" src="attachments/WXFG2TDF.png" ztype="zimage">

其中 y* 是正确答案,w(l) j 是第 l 层的第 j 个神经元,^ w(l) j 是 w(l) j 分配的值。为了计算每个神经元的归因分数,我们使用积分梯度(Sundararajan、Taly 和 Yan 2017)。考虑一个神经元 w(l) j ,我们可以计算它的归因分数:

\<img alt="" data-attachment-key="9PTK8AY8" data-annotation="%7B%22attachmentURI%22%3A%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2FEYHEHWWX%22%2C%22annotationKey%22%3A%22WI26DVZD%22%2C%22color%22%3A%22%23ffd400%22%2C%22pageLabel%22%3A%223%22%2C%22position%22%3A%7B%22pageIndex%22%3A2%2C%22rects%22%3A%5B%5B50.192%2C407.769%2C302.308%2C456.808%5D%5D%7D%2C%22citationItem%22%3A%7B%22uris%22%3A%5B%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2F77ALXKTW%22%5D%2C%22locator%22%3A%223%22%7D%7D" width="420" height="82" src="attachments/9PTK8AY8.png" ztype="zimage">

其中 w(l) j 是 w(l) j 的值,w′(l) j 是 w(l) j 的基线向量,并且 ∂ F(w′(l) j +α(w(l)) j −w′(l) j )) ∂ w(l) j 计算梯度。当 α 从 0 变为 1 时,(w′(l) j +α(w(l) j −w′(l) j )) 从 w′(l) j 变为 w(l) j ,因此 Attr (w(l) j )可以通过对梯度进行积分来累积因w(l) j 变化而引起的概率变化。理想的基线向量 w′(l) j 应该缺乏信息(Liu et al. 2022),当前的方法用零向量对其进行近似。然而,这样的设置没有考虑各种 PLM 架构之间的差异,导致性能不佳。为了缓解这个问题,我们设计了一种架构适应技术来计算各种 PLM 架构的基线向量。

 首先,为了最小化基线向量中的信息内容,我们遵循Enguehard(2023)的方法,将输入查询q分成m个单词,然后将每个单词分别输入到PLM中以计算神经元的激活分数对应每个词qi。随后,我们精心设计了不同 PLM 架构的基线向量。设qi对应的基线句子为q′ i,q′ i包含m个单词,长度与q一致,记为q′ i = (q′ i1 . . . q′ ik . . . q′ im) , 在哪里:

\<img alt="" data-attachment-key="YTVPUQLA" data-annotation="%7B%22attachmentURI%22%3A%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2FEYHEHWWX%22%2C%22annotationKey%22%3A%22BS72ACK6%22%2C%22color%22%3A%22%23ffd400%22%2C%22pageLabel%22%3A%223%22%2C%22position%22%3A%7B%22pageIndex%22%3A2%2C%22rects%22%3A%5B%5B53.654%2C87.577%2C296.538%2C128.538%5D%5D%7D%2C%22citationItem%22%3A%7B%22uris%22%3A%5B%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2F77ALXKTW%22%5D%2C%22locator%22%3A%223%22%7D%7D" width="405" height="68" src="attachments/YTVPUQLA.png" ztype="zimage">

其中 ⟨mask⟩ 用于屏蔽自动编码模型,⟨eos⟩ 代表自回归模型中的“序列结束”,qk 是查询的第 k 个单词。在此设计中,第 l 层中的第 i 个神经元(用 w(l) j 表示)对应于 qi,其相关基线向量 w’(l) j 对应于 q’ i。然后,我们可以根据方程(2)计算使用 qi 作为输入时每个神经元的归因得分 Attri(w(l) j )。为了计算积分,我们使用黎曼近似:

\<img alt="" data-attachment-key="J2V52PJA" data-annotation="%7B%22attachmentURI%22%3A%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2FEYHEHWWX%22%2C%22annotationKey%22%3A%22SMECCLTE%22%2C%22color%22%3A%22%23ffd400%22%2C%22pageLabel%22%3A%223%22%2C%22position%22%3A%7B%22pageIndex%22%3A2%2C%22rects%22%3A%5B%5B317.885%2C419.308%2C562.5%2C460.846%5D%5D%7D%2C%22citationItem%22%3A%7B%22uris%22%3A%5B%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2F77ALXKTW%22%5D%2C%22locator%22%3A%223%22%7D%7D" width="408" height="69" src="attachments/J2V52PJA.png" ztype="zimage">

其中 N 是近似步数。然后对每个单词 qi 的归因进行求和并标准化,得出查询的最终归因分数:

\<img alt="" data-attachment-key="TJE9KG2X" data-annotation="%7B%22attachmentURI%22%3A%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2FEYHEHWWX%22%2C%22annotationKey%22%3A%22RUKKVDNU%22%2C%22color%22%3A%22%23ffd400%22%2C%22pageLabel%22%3A%223%22%2C%22position%22%3A%7B%22pageIndex%22%3A2%2C%22rects%22%3A%5B%5B320.192%2C349.5%2C562.5%2C388.731%5D%5D%7D%2C%22citationItem%22%3A%7B%22uris%22%3A%5B%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2F77ALXKTW%22%5D%2C%22locator%22%3A%223%22%7D%7D" width="404" height="65" src="attachments/TJE9KG2X.png" ztype="zimage">

其中 n 是第 l 层中的神经元数量。最后,我们可以找到归因分数大于阈值τ的神经元,并将其视为知识神经元,记为N。

2.2 Language-Indepent Knowledge Neuron Dectection

解释 许多 PLM 支持多语言,并且这些模型中的事实知识的很大一部分是与语言无关的(Xu 等人,2023 年;Wang、Lipton 和 Tsvetkov,2020 年)。这种必要性对于探索多语言 PLM 中事实知识的存储机制变得越来越重要。我们将存储多种语言共有的事实知识的神经元定义为与语言无关的知识神经元,记为 L。为了识别这些类型的知识神经元,我们设计了一种检测算法,如下所示。

算法 如图 2 的模块 2 所示,给定 K 种语言中具有相同语义的事实三元组,让相应的查询用 qk 表示,其中 k = 1, 2, …。 。 。 ,K。对于每个查询,我们使用知识神经元定位模块来获取相应的知识神经元,其中神经元 w(l) i 的属性得分记为攻击 (w(l) i )。多语言PLM对不同语言的敏感度不同,导致不同语言查询的归因分数存在显着差异。因此,很难通过设置统一的阈值来获得所有语言的知识神经元。为了解决这个问题,我们设计了一种多语言阈值调整技术。我们为不同的语言设置不同的缩放因子τk,并记录查询qk对应的神经元的最大归因得分,然后确定动态阈值:

\<img alt="" data-attachment-key="P9A52SBQ" data-annotation="%7B%22attachmentURI%22%3A%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2FEYHEHWWX%22%2C%22annotationKey%22%3A%22CMF6JKKR%22%2C%22color%22%3A%22%23ffd400%22%2C%22pageLabel%22%3A%224%22%2C%22position%22%3A%7B%22pageIndex%22%3A3%2C%22rects%22%3A%5B%5B51.923%2C615.462%2C295.962%2C635.077%5D%5D%7D%2C%22citationItem%22%3A%7B%22uris%22%3A%5B%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2F77ALXKTW%22%5D%2C%22locator%22%3A%224%22%7D%7D" width="407" height="33" src="attachments/P9A52SBQ.png" ztype="zimage">

然后,我们使用阈值过滤来识别第 k 种语言的知识神经元 Nk ,如下所示:

\<img alt="" data-attachment-key="363QLBKW" data-annotation="%7B%22attachmentURI%22%3A%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2FEYHEHWWX%22%2C%22annotationKey%22%3A%22UBY826H3%22%2C%22color%22%3A%22%23ffd400%22%2C%22pageLabel%22%3A%224%22%2C%22position%22%3A%7B%22pageIndex%22%3A3%2C%22rects%22%3A%5B%5B54.231%2C568.731%2C295.962%2C590.077%5D%5D%7D%2C%22citationItem%22%3A%7B%22uris%22%3A%5B%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2F77ALXKTW%22%5D%2C%22locator%22%3A%224%22%7D%7D" width="403" height="36" src="attachments/363QLBKW.png" ztype="zimage">

最后,我们计算所有语言的知识神经元的交集:

\<img alt="" data-attachment-key="IECZZKEA" data-annotation="%7B%22attachmentURI%22%3A%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2FEYHEHWWX%22%2C%22annotationKey%22%3A%22KA6FW74N%22%2C%22color%22%3A%22%23ffd400%22%2C%22pageLabel%22%3A%224%22%2C%22position%22%3A%7B%22pageIndex%22%3A3%2C%22rects%22%3A%5B%5B55.962%2C509.308%2C294.808%2C545.077%5D%5D%7D%2C%22citationItem%22%3A%7B%22uris%22%3A%5B%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2F77ALXKTW%22%5D%2C%22locator%22%3A%224%22%7D%7D" width="398" height="60" src="attachments/IECZZKEA.png" ztype="zimage">

其中 L 代表独立于语言的知识神经元,编码在所有考虑的语言中一致的事实知识。通过上述算法,我们最终可以得到它们。

2.3Degenerate Knowledge Neuron Detection

解释 通过进行深入分析,我们发现了一个有趣的现象:不同的神经元组负责存储相同的事实知识。例如,对于表示为 ⟨h, r, t⟩ 的特定事实,假设我们定位 10 个标记为 N = {1, 2, … 的知识神经元。 。 。 ,10}。如果我们抑制集合 A = {1, 2} 或 B = {3, 4, 5}(N 的两个子集)的神经元,我们观察到预测概率没有显着下降。相反,同时抑制这两组神经元(即 A∪B)会导致预测概率的大幅损失。这表明 A 组和 B 组都包含相同的事实知识,至少其中一个必须是活跃的,模型才能准确理解事实。此外,这两组神经元并不相互冗余。也就是说,除了事实⟨h,r,t⟩之外,A还可以存储事实⟨h1,r1,t1⟩,而B可以存储⟨h2,r2,t2⟩,从而在PLM中发挥附加作用。鉴于这种行为与生物神经网络中的退化现象相似(Tononi、Sporns 和 Edelman 1999;Mason 2015),我们为这些神经元创造了术语“退化知识神经元”。接下来详细介绍这个概念。算法 正式地,令 N = {n1, . 。 。 , nk} 是所有局部知识神经元 1 的集合,我们将退化知识神经元定义为 D = {d1D, . 。 。 , dDm},其中每个 dD i = {ni1, . 。 。 ,niv}包含v个知识神经元,并且满足以下条件:

\<img alt="" data-attachment-key="SUFF78G3" data-annotation="%7B%22attachmentURI%22%3A%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2FEYHEHWWX%22%2C%22annotationKey%22%3A%22BIA5YB3C%22%2C%22color%22%3A%22%23ffd400%22%2C%22pageLabel%22%3A%224%22%2C%22position%22%3A%7B%22pageIndex%22%3A3%2C%22rects%22%3A%5B%5B53.654%2C117%2C297.115%2C163.154%5D%5D%7D%2C%22citationItem%22%3A%7B%22uris%22%3A%5B%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2F77ALXKTW%22%5D%2C%22locator%22%3A%224%22%7D%7D" width="406" height="77" src="attachments/SUFF78G3.png" ztype="zimage">

\<img alt="" data-attachment-key="GVDGBVQB" data-annotation="%7B%22attachmentURI%22%3A%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2FEYHEHWWX%22%2C%22annotationKey%22%3A%22MLUF5LZR%22%2C%22color%22%3A%22%23ffd400%22%2C%22pageLabel%22%3A%224%22%2C%22position%22%3A%7B%22pageIndex%22%3A3%2C%22rects%22%3A%5B%5B313.269%2C513.346%2C565.962%2C745.269%5D%5D%7D%2C%22citationItem%22%3A%7B%22uris%22%3A%5B%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2F77ALXKTW%22%5D%2C%22locator%22%3A%224%22%7D%7D" width="421" height="386" src="attachments/GVDGBVQB.png" ztype="zimage">

其中 Ps(ni) 是并集 Sv j=1 nij 的真子集,即 Ps(ni) ⊊ Sv j=1 nij。 Prob(X)是当神经元集合X被激活时模型的预测概率,Tlow和Thigh是可接受的预测概率差的预定义阈值。式(9)表明,抑制dD i 的任意真子集,即Ps(ni),不会导致预测概率显着下降;而等式(10)表明,抑制dD i 中的所有神经元将导致预测概率显着下降。这表明这些神经元存储相同的知识。

一般情况下,<span style="background-color: #ff666680">考虑到我们有n个知识神经元,我们需要评估所有可能的子集,找到D的复杂度是O(2n)。为了使问题易于处理,我们通过假设每个 dD i 仅包含两个知识神经元来简化问题。这个假设将问题复杂度降低到 O(n2)。</span>

为了进一步减少计算量,我们设计了两步过滤过程。如图2的算法1和模块3所示,我们<span style="background-color: #ff666680">首先抑制每个神经元并记录不会导致预测概率显着下降的神经元,这些神经元被视为潜在的简并知识神经元Pd</span>。对于Pd中的元素,进行二次过滤:<span style="background-color: #ff666680">抑制其中的神经元对,如果该操作导致模型的预测概率显着下降,则将该神经元对记录为退化知识神经元dD i </span>。最后我们可以将退化的知识神经元返回为D。

3 Experiments

3.1Experimental Settings

模型选择和数据集 在我们的实验中,我们选择了两种不同的多语言 PLM:m-BERT (Devlin et al. 2018) 和 m-GPT (Shliazhko et al. 2022)。 m-BERT 是一种自动编码模型,针对多种多语言数据集进行了预训练,而 m-GPT 是一种自回归模型,旨在处理 61 种语言的广泛语料库。关于数据集,我们采用 mLAMA (Kassner, Dufter, and Sch utze 2021),它是原始 LAMA (Petroni et al. 2019a, 2020) 的多语言扩展,用于本地化多语言 PLM 中的知识。

评估指标 我们对这两种方法应用相同的神经元编辑操作,其中检测到的知识神经元被抑制或增强,然后计算 PLM 对相关和不相关事实的预测概率。为了全面比较不同方法的知识定位精度,我们提出了一种新的评估指标来评估整个数据集知识定位的结果:

\<img alt="" data-attachment-key="KX4LAIXX" data-annotation="%7B%22attachmentURI%22%3A%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2FEYHEHWWX%22%2C%22annotationKey%22%3A%22V2QVIJNH%22%2C%22color%22%3A%22%23ffd400%22%2C%22pageLabel%22%3A%225%22%2C%22position%22%3A%7B%22pageIndex%22%3A4%2C%22rects%22%3A%5B%5B54.808%2C575.077%2C295.962%2C609.115%5D%5D%7D%2C%22citationItem%22%3A%7B%22uris%22%3A%5B%22http%3A%2F%2Fzotero.org%2Fusers%2Flocal%2FiUeV0SQs%2Fitems%2F77ALXKTW%22%5D%2C%22locator%22%3A%225%22%7D%7D" width="402" height="57" src="attachments/KX4LAIXX.png" ztype="zimage">

其中SRx是编辑成功率,x代表我们抑制或增强神经元的编辑操作。给定一个查询,它本身被认为是相关事实,并且随机选择不同类型的事实作为其不相关事实。 ΔP robrx 和 ΔP robix 分别表示相关事实和不相关事实在操作 x 下预测概率的平均变化。总体而言,我们希望相关事实随着知识神经元的变化而变化,而不相关事实保持不变;因此,成功率越高,定位效果越好2。由于我们分别对神经元进行抑制和增强操作,因此将这两种情况的成功率总结为最终的成功率:SR = SRenhance + SRsuppress。

3.2Localization of Knowledge Neurons

我们使用模块1在英语和中文数据集上的m-BERT和m-GPT模型上进行实验,并以Dai等人(2022)提出的方法作为基线,我们将其表示为B-KN。我们的研究结果如表 1 和图 3 所示,从中我们得出了一些重要的见解。

  (1) 我们的方法在所有设置下都取得了更好的结果。在表1中,我们使用AMIG来表示我们的方法,表中的结果代表平均成功率SR。在所有设置下,我们的方法都优于 B-KN,特别是对于中国数据集,m-BERT 和 m-GPT 的成功率分别提高了 84.34% 和 44.49%。这表明我们的方法定位的知识神经元更加精确。

<span style="background-color: #5fb23680">(2)在m-BERT中,知识神经元主要位于最后层,而在m-GPT中,知识神经元位于前、中、最后层,如图3所示,其中x和y轴代表PLM分别是层数和知识神经元的百分比。这可能是由于自动编码模型(例如 m-BERT)共享编码空间并在最后几层中编码高级特征,而自回归模型(例如 m-GPT)逐渐细化每层的特征来预测下一个单词。</span>

  (3)汉语和英语的知识神经元分布较为相似,但也存在差异。相似之处可能是由于事实具有相同的含义语言之间存在差异,而差异可能是由于语言之间固有的结构和句法差异或预训练语料库质量的差异造成的。

3.3 Language-Independence Neurons and Cross-Lingual Knowledge Editing

语言无关神经元的定位通过我们对模块 2 的实验,我们捕获了图 3 中的结果。结果表明,无论是 m-BERT 还是 m-GPT,语言无关的知识神经元主要集中在最后一两个层。这可能是因为独立于语言的事实充当高级特征,而 PLM 只能在最后几层成功地对它们进行编码。跨语言知识编辑实验设置我们基于与语言无关的知识神经元设计跨语言编辑实验。与知识本地化实验的设置类似,我们抑制或者增强语言无关的知识神经元并计算编辑成功率SR。为了证明独立于语言的知识神经元的作用,我们设计了两个比较实验。(1)编辑一种语言的知识神经元,观察另一种语言相应事实的变化。 (2)依次编辑两种语言的知识神经元,观察两种语言对应事实的变化。跨语言知识编辑实验结果我们对表2的分析揭示了两个见解:

(1)独立于语言的知识神经元促进跨语言编辑。与仅编辑中文或英文相比,编辑与语言无关的知识神经元在所有设置下都有更高的成功率;在中国数据集中,m-BERT 和 m-GPT 的成功率分别提高了 213.05% 和 277.36%。这意味着用一种语言编辑事实知识并期望其他语言发生相应变化的挑战;然而,利用独立于语言的知识神经元可以实现这一点。

(2) 单独编辑每种语言并不能保证获得更好的结果。尽管人们可以直观地编辑每种语言以实现跨语言的更改,但我们的实验表明,这种方法不仅依赖更多的计算资源,而且可能表现不佳。与使用语言无关神经元相比,顺序编辑导致 mBERT 和 m-GPT 的成功率分别降低 42.97% 和 58.80%,这可能是由于多次编辑造成的混乱。这强调了语言独立神经元的重要性。

3.4Degenerate Knowledge Neurons and Fact-Checking Experiment

多语言PLM中简并知识神经元的识别我们使用模块3设置了一个实验来研究简并知识神经元,结果如图4所示。根据我们的观察,m-BERT和m-GPT中的简并知识神经元表现出分布模式类似于知识神经元。这不仅表明了简并性之间存在很强的相关性。单语言 PLM 中简并知识神经元的识别在我们的单语言 PLM 实验中,我们成功识别了简并知识神经元,并证明它们本质上存在于 PLM 中。关于简并知识神经元的一个可能的问题是:PLM 是否以多种语言存储相同的事实,从而利用多个神经元集来获取相同的信息?为了消除这种观念并证明简并知识神经元的存在与 PLM 中多语言的支持无关,我们将探索扩展到单语言 PLM,特别是 BERT 和 GPT-2。这些简并知识神经元的分布如图 5 所示,进一步证实了我们的结论。事实检查实验设置 PLM 可能会隐藏虚假事实(Edwards 2023;Pitt 2022),而当前的解决方案通常依赖外部数据进行事实检查(Vladika 和 Matthes 2023)。考虑到简并知识神经元功能重叠的性质,我们设计了一个事实检查实验,以在不依赖外部数据的情况下基于简并知识神经元检测错误事实。接下来,我们详细介绍我们的实验设置。

 首先,mLAMA 数据集被修改以包含错误的事实属性。<span style="background-color: #2ea8e580">对于与某个事实关系名称相关的事实三元组,例如 ⟨Tanzania, Capital, Dodoma⟩ ,我们从相同的关系名称中随机选择一个对象(例如,达累斯萨拉姆)作为错误事实。</span>然后,为了验证我们的发现的实际意义,<span style="background-color: #ff666680">我们将数据集中的每种类型的查询按比例分为两部分。对于每种类型,第一段用于获取简并知识神经元,并识别数量超过 t% 特定阈值的神经元。随后,我们将第二部分中的查询以及相应的正确或错误事实作为输入并计算简并知识神经元的平均激活分数。如果平均激活分数超过预定义的阈值 λ,则该事实被分类为正确;否则,它被归类为 false。</span>我们使用原始PLM直接评估事实的正确性进行比较分析。这种配置可以防止 PLM 使用查询本身的简并知识神经元进行事实检查,从而使实验更加令人信服。我们在表3中将我们的方法表示为“with DKN”。最后,由于当前的事实核查方法必须依赖于外部数据,因此我们使用PLM直接执行事实核查作为我们方法的基线,表示为“wo表 3 中的“DKN”。我们使用 Precision、Recall 和 F1-score 作为评估指标。

事实核查实验结果 表 3 中的结果使我们得出以下结论。

(1)退化的知识神经元可以帮助 PLM 检测错误的事实。在各种设置下,我们的方法比基线方法更好,特别是对于中国数据集和自回归模型。例如,在 m-GPT 和中文数据集的背景下,我们的方法的 F1 分数与基线相比增加了 167150%。这一实质性改进表明简并知识神经元的存在增强了 PLM 对事实知识的稳定掌握。

(2)使用PLM进行事实检查,他们经常判断一个事实是正确的,从而导致极高的召回率。这与观察结果一致,即如果提出错误的前提,生成语言模型可能会产生不正确的信息(Edwards 2022;Lakshmanan 2022;Metz 2022)。

(3)自回归模型比自编码模型表现出更高的召回率。这可能是由于自回归设计更注重一致性而不是准确性,并且自动编码在评估中可能更加保守(Zhou et al. 2023)。 (4)简并知识神经元的存在与PLM中多语言的支持无关。在单语言 PLM 中,即 BERT 和 GPT-2,事实检查也可以基于简并知识神经元进行。这一结果进一步证明了简并知识神经元的存在及其有用性。

知识定位现有的方法大致分为两类:(1)基于梯度的方法:Dai et al.(2022)首先引入了知识神经元的概念,并通过评估每个神经元的贡献来定位它们(​​Geva et al. 2021)使用积分梯度计算他们的归因得分。 (2)Causal-inspired方法,由Meng等人(2022a)提出,将知识神经元定义为PLM中对预测某些事实知识具有最强因果效应的神经元激活,该方法启发了知识编辑算法的创建例如 ROME(Meng 等人,2022a)、MEMIT(Meng 等人,2022b)和 MEND(Mitchell 等人,2022)。然而,当前的方法缺乏针对不同 PLM 架构和多种语言探索的通用方法。公理归因方法 Sundararajan、Taly 和 Yan(2017)介绍了公理归因方法,强调敏感性和实现不变性作为归因方法的核心公理,从而产生了积分梯度(IG)。后续研究包括Discretized IG (Sanyal and Ren 2021),它使用插值策略来提高梯度精度; Sequential IG (Enguehard 2023) 专为单词重要性评估而设计;有效 Shapley 值以及 Shapley IG,由 Liu 等人 (2022) 开发,用于提高效率和效果。我们改进了 IG 的基线向量,以最大限度地减少其信息内容。

5 Conclusion

 在这项研究中,我们使用适应架构的多语言集成梯度方法探索多语言 PLM 中的事实知识本地化。我们进一步设计了两个模块,导致了语言无关知识神经元和简并知识神经元的两个发现。前者肯定了多语言PLM中的一部分知识以超越语言的形式存在,而后者则引入了一种新型神经元,类似于生物系统中观察到的退化现象,这些神经元可以用来检测不正确的信息。事实。