使语言模型的微调类似于调制一杯精致的鸡尾酒。模型合并可用于提高单个模型的性能。我们发现此方法对于大型语言模型和密集嵌入模型也很有用,并设计了 LM-Cocktail 策略,该策略使用简单的函数计算合并权重来自动合并微调模型和基础模型。LM-Cocktail 可用于提高目标域的性能,而不会降低目标域之外的一般能力。它还可用于生成无需微调的新任务模型。
预训练的语言模型会不断微调,以更好地支持下游应用程序。但是,该操作可能会导致目标域以外的一般任务的性能明显下降。为了克服这个问题,LM-Cocktail它使微调模型在一般情况下保持弹性。该方法以模型合并的形式进行,通过加权平均将微调后的语言模型与预训练好的基础模型或其他领域的对等模型合并。尽管简单,LM-Cocktail却出奇地有效:结果模型能够在一般任务的整个范围内实现强大的经验表现,同时在目标领域保持优越的能力。我们在FLAN、MMLU、MTEB等常用基准上对LLama和BGE模型进行了综合实验,结果验证了本文方法的有效性。
相关论文:LM-Cocktail: Resilient Tuning of Language Models via Model Merging
资料下载:FlagEmbedding专为大语言模型各种检索增强任务设计的向量模型