内容源于b站梗直哥丶:动画科普大模型微调技术总结,推荐看原视频讲的超级好,适合科普或入门(笔记仅供个人学习使用,已经原作同意)

大模型微调发展历史:一阶段主要是改模型结构增加一些参数;二阶段模板设计分软硬两种;三阶段范式相对更统一。

在这里插入图片描述

(1)Adapter微调:增加Adapter很少的额外参数,黄色部分

Adapter Tuning

(2)LoRA:低秩适配(low-rank adaptation),增加旁路,一个编码器一个解码器来模拟内在低秩矩阵,只通过训练新加部分(右侧的A和B)参数来适配下游任务,类似残差

LoRA

(3)Prefix-tuninig:前缀微调不改变模型结构,从训练数据入手,在训练数据前人为添加前缀,相当于任务说明书

Prefix-tuninig

(4)Prompt-tuning:前缀微调的简化版,输入层不额外处理,直接把prompt tokens添加到输入,大写ABC是不同的任务类型(比如情感分析、机器翻译等等),小写abc是句子数据

Prompt-tuning

(5)P-tuning:引入提示词编码器,h0-hi是提示词编码器生成的

P-tuning

总结:各种微调技术的本质——微调隐空间中的h

在这里插入图片描述

Logo

Agent 垂直技术社区,欢迎活跃、内容共建。

更多推荐