【入门级大模型微调技术总结】懂深度学习的都能看懂
入门级大模型微调技术总结
·
内容源于b站梗直哥丶:动画科普大模型微调技术总结,推荐看原视频讲的超级好,适合科普或入门(笔记仅供个人学习使用,已经原作同意)
大模型微调发展历史:一阶段主要是改模型结构增加一些参数;二阶段模板设计分软硬两种;三阶段范式相对更统一。

(1)Adapter微调:增加Adapter很少的额外参数,黄色部分

(2)LoRA:低秩适配(low-rank adaptation),增加旁路,一个编码器一个解码器来模拟内在低秩矩阵,只通过训练新加部分(右侧的A和B)参数来适配下游任务,类似残差

(3)Prefix-tuninig:前缀微调不改变模型结构,从训练数据入手,在训练数据前人为添加前缀,相当于任务说明书

(4)Prompt-tuning:前缀微调的简化版,输入层不额外处理,直接把prompt tokens添加到输入,大写ABC是不同的任务类型(比如情感分析、机器翻译等等),小写abc是句子数据

(5)P-tuning:引入提示词编码器,h0-hi是提示词编码器生成的

总结:各种微调技术的本质——微调隐空间中的h

更多推荐

所有评论(0)