lora 继续训练

一般正常lora训练完模型后我们只保存其lora参数,然后与base模型进行合并。记录一下训练完保存lora后,继续再对lora训练的步骤。

base_model = AutoModelForCausalLM.from_pretrained(base_model_id)
base_model.enable_input_require_grads()
model = PeftModel.from_pretrained(base_model, peft_adapter_path)
for name, param in model.named_parameters():
    if 'lora' in name or 'Lora' in name:
        param.requires_grad = True

其中peft_adapter_path即为之前保存的lora模型路径。

参考:
1、https://github.com/huggingface/peft/issues/184
2、参考2

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐