浅谈全量微调和LoRA微调 全量微调Full Fine-Tuning 全量微调是指在预训练的大型模型基础上调整所有层和参数,使其适应特定任务的过程。这一过程使用较小的学习率和特定任务的数据进行,可以充分利用预训练模型的通用特征 高效微调 高效微调(PEFT)是一种参数微调技术,它允许在预训练模型上仅微调少量或额外的模型参数,同时固定大部分预训练参数,从而显著降低训练成本。这种方法相比于全参数微调,在没有微调过的大语言模型上性能略差,但在已经微调过的模型上,性能接近 通俗理解全量微调与高效微调-LoRA微调 日常学习总结