ReFT(Representation Finetuning):通过干预中间层表征实现比LoRA更高效的微调

ReFT:表征微调,超越LoRA的高效微调技术 大家好,今天我们来深入探讨一种新兴的参数高效微调(PEFT)技术:Representation Finetuning,简称ReFT。随着深度学习模型规模的爆炸式增长,全参数微调变得越来越不现实,PEFT应运而生。ReFT作为PEFT家族的新成员,凭借其在中间层表征上的巧妙干预,展现了超越LoRA等主流PEFT技术的潜力。 1. 参数高效微调的必要性 在深入ReFT之前,我们首先要理解参数高效微调的重要性。 预训练语言模型(PLM)如BERT、GPT系列等,在大量数据上训练后,具备了强大的通用知识和语言理解能力。 然而,要将这些PLM应用到特定的下游任务中,通常需要进行微调。 全参数微调虽然效果最好,但需要更新模型的所有参数,这对于大型模型来说,计算成本和存储成本都非常高昂。此外,全参数微调还可能导致灾难性遗忘,即模型在适应新任务的同时,忘记了预训练阶段学到的知识。 参数高效微调(PEFT)通过只微调模型的一小部分参数,或者引入少量额外参数,来解决这些问题。PEFT方法降低了计算成本和存储成本,同时减轻了灾难性遗忘的风险。常见的PEFT方法 …