2025年年初随着DeepSeek的爆火,人们对LLM(Large Language Model,大语言模型)兴趣与日激增,很多人觉得LLM常常显得近乎魔法般神奇。接下来我们就来揭开LLM的神秘面纱。

拆解一下LLM的基本原理——深入探讨这些模型是如何构建、训练和微调,最终成为我们今天所使用的AI大模型的。

一、概念准备

1、预训练(Pre-training)

预训练是大模型训练的基础阶段,通过海量无标注数据(如互联网文本、图像等)让模型学习通用知识(如语言语法、图像纹理等)。例如,GPT-3通过千亿级参数的预训练掌握语言生成能力。

作用:建立模型对世界的通用理解,是后续所有优化阶段的基石。

2、 微调(Fine-tuning)

在预训练模型基础上,针对特定任务(如医疗问答、法律文本分类)使用少量标注数据进行参数调整。例如,用LoRA方法冻结大部分参数,仅训练低秩矩阵适配新任务。

与预训练关系:微调是预训练的延伸,将通用知识迁移到垂直领域。

3、强化学习(RL)

RL是一种独立于微调的学习范式,通过环境反馈(奖励信号)优化策略。例如,训练游戏AI时,模型根据得分调整动作选择。

与微调的区别:RL不依赖标注数据,而是通过试错学习,这个能力也是为什么AI大模型有创新的关键,因为RL会让大模型发现人类难以发现的数据之间的规律,实现创新;微调依赖静态标注数据集。

4、基于人类反馈的强化学习(RLHF)

RLHF是RL的子类引入人类标注的偏好数据(如对答案质量的排序)作为奖励信号。例如,ChatGPT通过RLHF对齐人类价值观,减少有害输出。后文有专门对RLHF的详解。

强化学习(RL)和人类反馈强化学习(RLHF)是大模型实现动态自适应能力的核心技术,它们使大模型从"知识复读机"进化为"具备自主决策能力的认知体",使得大模型真正具有了“自学习”的能力。

二、大模型训练的步骤概述

从整体上看,训练LLM主要包括两个关键阶段:预训练(Pre-training)后训练(Post-training):微调、RL和RLHF。

img

上述流程整合了预训练、微调、RLHF等核心阶段,适用于自然语言处理和多模态大模型:

1.数据准备
  • 数据收集:根据目标领域收集海量无标注数据(预训练)或少量标注数据(微调)。
  • 清洗与增强:去除噪声、重复项,进行分词/标准化(文本)或裁剪/旋转(图像)。
  • 划分数据集:预训练无需标注;微调需划分训练集/验证集/测试集(比例通常为8:1:1)。
2.预训练(Pre-training)
  • 模型架构选择:如Transformer(文本)、ViT(图像)或混合架构(多模态)。

训练策略

  • 无监督学习:掩码语言建模(BERT)、自回归生成(GPT)。
  • 分布式训练:使用GPU/TPU集群加速,如Megatron-LM框架。
3.任务适配:微调(Fine-tuning)

全量微调:调整所有参数,适合数据充足场景(如金融风控)。

参数高效微调(PEFT)

  • LoRA:低秩矩阵分解,减少90%训练参数。
  • Adapter:插入小型网络模块,保持原模型权重。
  • 优化目标:最小化任务损失函数(如交叉熵损失)。
4.强化学习优化(RL/RLHF)

奖励模型训练:用人类标注的偏好数据(如答案质量排序)训练奖励模型(Reward Model)。

策略优化

  • RL:通过环境反馈(如游戏得分)调整策略,无需人类干预。
  • RLHF:结合奖励模型和PPO算法优化模型输出,例如提升对话流畅度。
  • 关键步骤:KL散度惩罚防止模型偏离原始分布。
5.评估与调优

指标选择:准确率、BLEU(文本生成)、ROUGE(摘要)或人工评估(复杂任务)。

过拟合处理

  • 正则化:Dropout、权重衰减。
  • 早停法(Early Stopping)。
6.部署与监控

模型压缩:量化(INT8/INT4)、剪枝,降低推理成本。

持续学习:根据用户反馈(如日志分析)进行在线微调。

关键步骤区别与适用场景

img

接下来我们详细的介绍下每一个步骤的详细内容。

三、预训练(Pre-training)

1、为什么需要预训练?

预训练是为了让模型在见到特定任务数据(比如生成文本)之前,先通过学习大量通用数据来捕获广泛有用的特征,熟悉语言的工作方式,从而提升模型在目标任务上的表现和泛化能力,而这一过程就是预训练——一个极其计算密集的任务。

预训练技术通过从大规模未标记数据中学习通用特征和先验知识,减少对标记数据的依赖,加速并优化在有限数据集上的模型训练。

img

2、为什么要用大量未标记的数据做预训练呢?

1)数据稀缺性: 在现实世界的应用中,收集并标注大量数据往往是一项既耗时又昂贵的任务。特别是在某些专业领域,如医学图像识别或特定领域的文本分类,标记数据的获取更是困难重重。

预训练技术使得模型能够从未标记的大规模数据中学习通用特征,从而减少对标记数据的依赖。这使得在有限的数据集上也能训练出性能良好的模型。

2)先验知识问题:在深度学习中,模型通常从随机初始化的参数开始学习。然而,对于许多任务来说,具备一些基本的先验知识或常识会更有帮助。

预训练模型通过在大规模数据集上进行训练,已经学习到了许多有用的先验知识,如语言的语法规则、视觉的底层特征等。这些先验知识为模型在新任务上的学习提供了有力的支撑。

img

预训练是语言模型学习的初始阶段。在预训练期间,模型会接触大量未标记的文本数据,例如书籍、文章和网站。目标是捕获文本语料库中存在的底层模式、结构和语义知识。

本阶段大模型主要学习的方式是:

无监督学习: 预训练通常是一个无监督学习过程,模型在没有明确指导或标签的情况下从未标记的文本数据中学习。

屏蔽语言建模: 模型经过训练可以预测句子中缺失或屏蔽的单词、学习上下文关系并捕获语言模式。

具体的执行步骤如下:

步骤1:数据收集与预处理

训练LLM的第一步是收集尽可能多的高质量文本数据。目标是创建一个庞大且多样化的数据集,涵盖广泛的人类知识。

一个常见的数据来源是Common Crawl,这是一个免费的、开放的网页爬取数据存储库,包含过去18年间约2500亿个网页的数据。然而,原始网页数据往往比较嘈杂——其中包含垃圾信息、重复内容和低质量文本,因此数据预处理至关重要。

img

一旦文本语料库经过清理,就可以进行分词(Tokenization)处理。

步骤2:分词(Tokenization)

在神经网络处理文本之前,文本必须先转换为数值形式。这一过程就是分词,它将单词、子词或字符映射为唯一的数值token。

可以把token想象成构建语言模型的基本单元——所有语言模型的核心组件。在GPT-4中,可能的token数量为100277个。

一个常见的分词工具是Tiktokenizer,它允许你进行分词实验,并查看文本是如何被拆解为token的。

https://tiktokenizer.vercel.app/

你可以尝试输入一句话,看看每个单词或子词是如何被分配一系列数值ID的。

img

步骤3:神经网络训练(Neural Network Training)

一旦文本被分词处理,神经网络就会学习根据上下文预测下一个token。模型会接收一串输入token(例如“我正在烹饪”),然后通过一个庞大的数学表达式——即模型的架构(如:Transformer)——进行处理,以预测下一个token。

img

一个神经网络主要由两个关键部分组成:

1)参数(参数权重,Weights):通过训练学习得到的数值,用于表达每一个Token的具体语义,比如是否是动词/名称、是动物/植物等。在GTP-3中这个参数是12288个维度,即一个Token用12288个维度来描述它,维度越多越能够精准的描述一个token,但是参数都增多算量会指数级增长,所以需要在准确率和算量之间找到平衡。

2)架构(数学表达式,Architecture):定义输入token如何被处理以生成输出的结构。比如现在最常用的架构就是Transformer架构。

最初,模型的预测是随机的,但随着训练的进行,它逐渐学会为可能的下一个token分配概率。

当正确的token(例如“食”)被识别后,模型会通过反向传播(Backpropagation)来调整数十亿个参数(权重)。这是一个优化过程,通过提高正确预测的概率、降低错误预测的概率来强化模型的学习。

这个过程会在海量数据集上重复数十亿次。

预训练通常采用基于 Transformer 的架构,该架构擅长捕获远程依赖关系和上下文信息。

img

基础模型(Base Model):预训练的产物

在这一阶段,基础模型已经学会了:

• 单词、短语和句子之间的关联

• 训练数据中的统计模式

然而,基础模型并未针对真实世界任务进行优化。你可以将其类比为一个高级自动补全系统——它能够基于概率预测下一个token,但缺乏良好的指令跟随能力。

基础模型有时会逐字复述训练数据,并且可以通过上下文学习(In-Context Learning) 进行特定应用,即在提示(Prompt)中提供示例来引导模型的响应。但为了让模型真正有用且可靠,它还需要进一步训练。

那么,如何系统的去学习大模型LLM?

作为一名从业五年的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。

所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。

由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~
在这里插入图片描述

👉大模型学习指南+路线汇总👈

我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。
在这里插入图片描述
在这里插入图片描述

👉①.基础篇👈

基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。
在这里插入图片描述

👉②.进阶篇👈

接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。
在这里插入图片描述

👉③.实战篇👈

实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。
在这里插入图片描述

👉④.福利篇👈

最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
在这里插入图片描述
相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!

Logo

Agent 垂直技术社区,欢迎活跃、内容共建。

更多推荐