简介
课程简介
从0到1训练自己的大模型 揭密ChatGPT背后的技能与应用视频教程,由办公模板库编程网lexuecode.com整理分享。在本次课程中,你将体验从零开始构建和训练你自己的大型语言模型(LLM)的全过程,深入探讨BERT、GPT等核心大模型的架构和工作原理,揭示它们如何通过复杂的Transformer网络和预训练技术来理解和生成文本。讲解ChatGPT等大模型的训练原理,包括其数据准备、模型架构选择、训练策略和微调方法。通过这些知识,你将能够掌握如何设计和实施有效的训练策略。
课程目录
├── 1-课程介绍/
│ ├── [ 40M] 1-1 【导航】课程导学&让你快速了解课程
│ ├── [ 11M] 1-2 【内容安排】课程安排和学习建议
│ ├── [ 39M] 1-3 【行业发展】ChatGPT对行业、社会有什么影响,我们要如何应对
│ ├── [ 15M] 1-4 【发展史】ChatGPT的简要历史
│ └── [6.3M] 1-5 【学习须知】本课程为什么使用gpt2而不是gpt3
├── 2-训练模型与开发平台环境/
│ ├── [8.9M] 2-1 【认知】为什么要引入paddle?平时使用torch,学习paddle貌似没用怎么办?
│ ├── [9.0M] 2-2 【框架】paddle和torch与tensorflow对比
│ ├── [5.3M] 2-3 【NLP工具和预训练模型】paddleNLP和huggingface
│ ├── [ 24M] 2-4 【平台】介绍aistudio
│ └── [ 19M] 2-5 【工具】介绍基于gpt4的IDE cursor
├── 3-chatGPT初始技术词向量原理剖析与实战/
│ ├── [6.9M] 3-1 【认知】词向量,词向量与gpt的关系
│ ├── [ 20M] 3-2 【语言模型】语言模型和评估指标PPL
│ ├── [ 16M] 3-3 【词向量模型】word2vec-cbow和skipgram
│ ├── [ 22M] 3-4 【softmax加速】是softmax 树型优化
│ ├── [ 18M] 3-5 【softmax加速】softmax负采样优化
│ ├── [ 57M] 3-6 【数据准备与预处理】word2vec实战(1)
│ ├── [ 42M] 3-7 【数据准备与预处理】word2vec实战(2)
│ ├── [ 26M] 3-8 【模型训练】word2vec实战-模型开发和训练(1)
│ ├── [ 36M] 3-9 【模型训练】word2vec实战-模型开发和训练(2)
│ ├── [ 18M] 3-10 【激活函数】常见七种激活函数对比
│ ├── [ 36M] 3-11 【预训练语言模型】RNN-LSTM-ELMO
│ └── [5.0M] 3-12 本章梳理小结
├── 4-chatGPT基石模型——基于Transformer架构的语言模型/
│ ├── [2.2M] 4-1 本章介绍
│ ├── [ 21M] 4-2 seq2seq结构和注意力
│ ├── [ 11M] 4-3 seq2seq-attention的一个案例
│ ├── [ 49M] 4-4 transformer的multi-head attention 多头注意力机制
│ ├── [ 16M] 4-5 transformer的残差链接-解决梯度消失问题
│ ├── [9.7M] 4-6 transformer的layernorm-归一化提升训练稳定性
│ ├── [ 19M] 4-7 transformer的decoder 解码器
│ ├── [ 10M] 4-8 sparse-transformer 稀疏模型
│ ├── [ 33M] 4-9 transformer-xl 解决长序列的问题(1)
│ ├── [ 36M] 4-10 transformer-xl解决长序列的问题(2)
│ └── [6.0M] 4-11 本章梳理总结
├── 5-基于Transformer另一分支Bert系列分析与实战/
│ ├── [1.8M] 5-1 本章介绍
│ ├── [ 31M] 5-2 metric-评估指标(BLUE-rouge-L-METOER-NIST)
│ ├── [9.5M] 5-3 常见 subword 算法(BPE-wordpiece)
│ ├── [9.5M] 5-4 常见的NLP任务
│ ├── [ 50M] 5-5 bert 预训练模型
│ ├── [ 43M] 5-6 bert情感分析实战—-paddle(1)
│ ├── [ 49M] 5-7 bert情感分析实战—-paddle(2)
│ ├── [ 24M] 5-8 evaluate和predict方法—-paddle
│ ├── [ 39M] 5-9 bert(transformer encoder)主要源码分析—-paddle(1)
│ ├── [ 39M] 5-10 bert(transformer encoder)主要源码分析—-paddle(2)
│ ├── [ 68M] 5-11 bert(transformer encoder)的完整源码cache部分分析—-paddle
│ ├── [ 34M] 5-12 Ernie文心一言基础模型(1)
│ ├── [ 15M] 5-13 Ernie文心一言基础模型(2)
│ ├── [ 33M] 5-14 plato百度对话模型(1)
│ ├── [ 31M] 5-15 plato 百度对话模型(2)
│ └── [ 15M] 5-16 本章总结
├── 6-chatGPT的核心技术——强化学习/
│ ├── [ 18M] 6-1 RL是什么&为什么要学习RL
│ ├── [4.0M] 6-2 强化学习章介绍
│ ├── [ 11M] 6-3 RL基础概念
│ ├── [ 25M] 6-4 RL马尔可夫过程
│ ├── [ 29M] 6-5 RL三种方法(1)
│ ├── [ 10M] 6-6 RL三种方法(2)
│ ├── [ 16M] 6-7 DQN和DQN的2种改进算法(1)
│ ├── [ 25M] 6-8 DQN和DQN的2种改进算法(2)
│ ├── [ 42M] 6-9 actor-critic(1)
│ ├── [ 11M] 6-10 actor-critic(2)
│ ├── [ 46M] 6-11 TRPO+PPO(1)
│ ├── [ 31M] 6-12 TRPO+PPO(2)
│ ├── [ 45M] 6-13 DQN代码实践–torch-1
│ ├── [ 47M] 6-14 DQN代码实践–torch-2
│ ├── [ 47M] 6-15 DoubleDQN+DuelingDQ代码–torch
│ ├── [ 47M] 6-16 REINFORCE代码–torch
│ ├── [ 63M] 6-17 PPO代码实践–torch
│ └── [ 20M] 6-18 强化学习-本章总结
├── 7-chatGPT技术演变——从GPT 1 开始的大模型发展与演化/
│ ├── [ 30M] 7-1 GPT1 模型
│ ├── [ 32M] 7-2 GPT2 模型
│ ├── [ 35M] 7-3 GPT3 模型-1
│ ├── [ 27M] 7-4 GPT3 模型-2
│ ├── [ 27M] 7-5 gpt-codex 基于GPT技术开发的模型
│ ├── [ 35M] 7-6 alphaCode基于GPT技术开发的模型-1
│ ├── [ 20M] 7-7 alphaCode基于GPT技术开发的模型-2
│ ├── [ 23M] 7-8 instruct-gpt 基于GPT技术开发的模型-1
│ ├── [ 26M] 7-9 instruct-gpt 基于GPT技术开发的模型-2
│ ├── [ 44M] 7-10 Antropic LLM大型语言模型
│ └── [ 16M] 7-11 GPT-本章总结
├── 8-RLHF训练类ChatGPT模型代码实战/
│ ├── 由办公模板库编程网lexuecode.com
│ ├── [ 11M] 8-1 chatGPT训练实战
│ ├── [ 61M] 8-2 SFT有监督的训练-数据处理
│ ├── [ 39M] 8-3 SFT有监督训练-trainer
│ ├── [ 62M] 8-4 SFT有监督训练-train
│ ├── [ 34M] 8-5 RM训练-model+dataset(1)
│ ├── [ 30M] 8-6 RM训练-model+dataset(2)
│ ├── [ 30M] 8-7 RM训练-trainer
│ ├── [ 38M] 8-8 RM训练-train-rm
│ ├── [ 17M] 8-9 RLHF强化学习人类反馈的训练-dataset
│ ├── [ 27M] 8-10 RLHF强化学习人类反馈的训练-model-base
│ ├── [ 17M] 8-11 RLHF强化学习人类反馈的训练-model-opt
│ ├── [ 46M] 8-12 RLHF强化学习人类反馈的训练-generation(1)
│ ├── [ 48M] 8-13 RLHF强化学习人类反馈的训练-generation(2)
│ ├── [ 36M] 8-14 RLHF强化学习人类反馈的训练-exp_maker(1)
│ ├── [ 42M] 8-15 RLHF强化学习人类反馈的训练-exp_maker(2)
│ ├── [ 59M] 8-16 RLHF强化学习人类反馈的训练-buffer-utils
│ ├── [ 46M] 8-17 RLHF强化学习人类反馈的训练-buffer-loss
│ ├── [ 57M] 8-18 RLHF强化学习人类反馈的训练-trainer
│ └── [ 66M] 8-19 RLHF强化学习人类反馈的训练-main
├── 第9章 低成本微调大模型方法PEFT(LoRA等) — 训练 &ChatGLM2& 项目/
│ ├── [ 43M] 9-1参数高效微调方法peft-bitfit
│ ├── [ 26M] 9-2参数高效微调方法prefix-t
│ ├── [ 16M] 9-3参数高效微调方法prompt-t
│ ├── [ 22M] 9-4参数高效微调方法p-tuning
│ ├── [ 19M] 9-5参数高效微调方法p-tuningv2
│ ├── [ 12M] 9-6参数高效微调方法lora
│ ├── [ 45M] 9-7高效调参方案实现prompt_tuning-1
│ ├── [ 33M] 9-8高效调参方案实现prompt_tuning-2
│ ├── [ 42M] 9-9高效调参方案实现p-tuning
│ ├── [ 56M] 9-10高效调参方案实现prefix-tuning
│ ├── [ 41M] 9-11高效调参方案实现lora-01
│ ├── [ 42M] 9-12高效调参方案实现lora-02
│ ├── [ 44M] 9-13高效调参方案实现lora-03
│ ├── [ 46M] 9-14AdaLora微调ChatGLM2实战-1
│ ├── [ 61M] 9-15AdaLora微调ChatGLM2实战-2
│ └── [ 31M] 9-16PEFT-本章总结
├── 第10章 langchain+训练大模型ChatGLM2 构建“知识库问答”/
│ ├── [ 15M] 10-1基于langchain的应用
│ ├── [ 57M] 10-2langchain初探与实战
│ ├── [ 38M] 10-3langchain实现mini-QA
│ ├── [ 21M] 10-4工业场景知识库LLM助手的设计
│ └── [ 20M] 10-5langchain和知识增强LLM总结
└── 第11章 课程总结/
├── [ 25M] 11-1课程总结(1)
└── [ 23M] 11-2课程总结(2)
└── 资料代码/
更新日志
2024-3-18:已更新完结,百度云盘下载。
暂无评论内容