声明:以下基本都是基于时间换空间的方法,微调方法用的是firefly(流萤)框架

1. 减小"per_device_train_batch_size",设置 "gradient_accumulation_steps"。这样在计算梯度的时候是每per_device_train_batch_size*gradient_accumulation_steps个样本计算一下

2.设置gradient_checkpointing,模型不缓存激活状态,会进行两次forward计算,以节省显存。

3.优化器改成Adafactor

4.对原大模型的params进行with torch.no_grad操作,不更新原来大模型的参数,只针对后处理层进行训练

5.减小语料的max length:“max_seq_length”

Logo

Agent 垂直技术社区,欢迎活跃、内容共建。

更多推荐