Untied Embeddings:输入Embedding与输出Head权重解耦在多语言模型中的必要性 大家好!今天我们来深入探讨多语言模型中一个至关重要的设计选择:Untied Embeddings,即输入Embedding与输出Head权重解耦。在单语言模型中,通常我们会共享这两部分参数,但在多语言场景下,这种共享策略会带来诸多问题,解耦则成为提升模型性能的关键。 1. 语言模型的参数共享与Untied Embeddings 首先,我们需要理解语言模型的结构以及参数共享的概念。一个标准的Transformer语言模型(如GPT)主要由以下几部分组成: 输入Embedding层 (Input Embedding Layer): 将输入的token(词或子词)转换为连续向量表示,也就是将离散的token ID映射到高维空间中的向量。 Transformer Encoder/Decoder层: 这是模型的核心,负责对输入向量进行多层自注意力计算,提取上下文信息。 输出Head (Output Head/Classification Head): 将Transformer层的输出向量映射到 …