分享好友 最新动态首页 最新动态分类 切换频道
【AI大模型】LLM 训练基础知识整理,看了都说好!!
2024-12-29 04:48

训练llm,基本分为三步:pretrain -> sft(chat model) -> dpo/RLHF(helpful & Safety). 辅助的环节:数据处理,评估

【AI大模型】LLM 训练基础知识整理,看了都说好!!

目前比较成熟,一般采用 gpt架构,Llama/Llama2

  • Transformer-Decoder结构

  • PreLayerNorm-RMSNorm

 
  • ROPE旋转位置编码(替换绝对/相对位置编码

  • SwiGLU激活函数(替换ReLU

 

在模型结构不改变的情况下,模型的优化主要在于 分词、参数选择、训练数据,同时也包括对attention方法的选择

通常情况下,Tokenizer有三种粒度:word/char/subword。

llm使用的 Tokenizer 一般为subword。常见的方法有

  • Byte-Pair Encoding (BPE):字节对编码

  • 本质是一种数据压缩方法。2015年Sennrich 通过论文Neural Machine Translation of Rare Words with Subword Units[2] 将这个算法使用在生成Tokenizer的词表上,做法是先将每个文本词(Word)拆分成 Char粒度的字母序列,然后通过迭代地合并最频繁出现的字符或字符序列来实现生成Tokenizer最终词表的过程

  • 最早OpenAI GPT-2 与Facebook RoBERTa均采用此方法进阶版BBPE构建 Subword 向量,也是目前最常用的Tokenizer方法之一

  • Byte-level BPE(BBPE

  • 2019年12月,论文:Neural Machine Translation with Byte-Level Subwords[3] 在基于BPE基础上提出以Byte-level为粒度的分词算法Byte-level BPE,即BBPE。解决中文、日文等语言时的词表OOV问题,BBPE考虑将一段文本的UTF-8编码(UTF-8保证任何语言都可以通用)中的一个字节256位不同的编码作为词表的初始化基础Subword。

  • 但对中文、日文不友好。中文字符 UTF8 为三字节,编码效率低

  • Llama 使用

  • WordPiece:对BPE的改变是使用语言本身的分布概率代替词频进行编码

  • SentencePiece

  • 固定词汇表,空格还原;内部支持BPE、wordpiece编码;快速且轻量级

  • 参考:https://zhuanlan.zhihu.com/p/630696264

  • Yi 使用

以下为几个LLM的Tokenizer的情况

模型训练数据量模型参数训练数据范围词表大小分词算法分词器(Tokenizer)后端LLaMA1T~1.4T tokens(其中,7B/13B使用1T,33B/65B使用1.4T)7B~65B以英语为主要语言的拉丁语系32000BBPE基于SentencePiece工具实现ChatGLM-6B约 1T tokens6B中英双语130528BBPE基于SentencePiece工具实现Bloom1.6TB预处理文本,转换为 350B 唯一 tokens300M~176B46种自然语言,13种编程语言250680BBPEHuggingFace 的 tokenizers (类SentencePiece

主要计算耗时在pretrain环节,Llama2的训练开销如下

sft/RLHF训练,需要多次迭代,逐步调优。需要人的评价(human-feedback),用于训练奖励模型、强化学习

模型评估用来衡量模型的优劣,已经形成了多种评估方法及指标

  • • 在自然语言处理能力的常见评价:阅读理解、知识问答、推理、数学、代码等

  • • 安全性、有用性(有用并符合人类价值观

在模型结构基本不变的情况下,模型的优化在于训练数据、参数等的匹配,训练过程的优化及预估

OpenAI的scale 定律

 
  • 图1表明,语言模型表现与模型参数量N(Embedding除外)、训练Token数D、训练总计算量C都呈现幂定律
  • 图2表明,模型大小从768~1.5B在不同Token数(22M-23B)上训练的过程
  • 图3表明,随着计算量增加需要了解计算资源如何高效的分配。论文中以计算能力增加10亿倍为例,对于最优效率训练,大部分计算资源用于增加模型大小,小部分用于数据增加,同时数据增加大部分用于增加batch大小,很少用于增加模型串行训练的step数

关键结论

  • 模型表现强依赖于模型规模(模型参数量N(Embedding除外)、训练Token数D、训练总计算量C)

  • 平滑幂定律:模型表现与三个因子均遵循幂定律,不受另外两个因子限制

  • 过拟合的通用性:当同时提升N/D时,模型性能提升;但如果固定其中一个,模型表现取决于比例N^{0.74}/D.(与下文DeepMind工作冲突) 训练的通用性:训练曲线遵循可预测的幂律,其参数独立于模型大小。通过推断训练曲线的早期部分,可以大致预测如果训练更长时间会达到的损失。

  • 迁移学习表现与测试性能相关:当在不同于训练分布的文本上评估模型时,结果与训练验证集上的结果强相关,并且损失大致上存在一个恒定的偏差。换句话说,将模型迁移到不同的分布会产生一个恒定的偏差,模型在训练集上的表现越好,迁移学习的效果也越好。

  • 样本效率:大模型比小模型更具样本效率,可以通过更少的优化步骤和更少的数据达到相同的性能水平。

  • 收敛效率低:在固定的计算预算C下,但没有其他限制的情况下,通过训练非常大的模型并在收敛之前显著停止,可以获得最佳性能。因此,最大计算效率的训练将比基于更多样本训练小型模型收敛的效率高得多,随着训练计算的增加,数据需求增长非常缓慢,即 D ∼ C ^{0.27}。

  • 最佳的batchsize:这些模型的理想batchsize仅与损失的幂指数相关,并且可以通过测量梯度噪声尺度[MKAT18]来确定;对于可以训练的最大模型,在收敛时Token数大约为1-2百万。

DeepMind:大模型训练计算优化实证分析

 

核心问题:给定训练参数量的情况下,如何配置模型参数量以及训练Token数。

与OpenAI提出大模型缩放法则不同的是,DeepMind认为当前许多大模型是训练不充分的

  • • OpenAI在《Scaling Laws for Neural Language Models》中,指出在给定计算量的时候,模型性能的提升主要在于增加参数规模而不是增加数据量

  • • 本文则指出在每条曲线的最小值的左侧,模型太小了——在较少数据上训练的较大模型将是一种改进。在每条曲线的最小值的右侧,模型太大——在更多数据上训练的较小模型将是一种改进。最好的模型处于最小值。

在文中,作者探讨了三种不同的策略来评估和确定在给定训练参数量的情况下,最佳的模型参数量与训练 Token 数的配比

  • • 方法一:固定模型大小,改变训练Token数

  • • 方法二:等值浮点运算能力剖析(IsoFLOP profiles)

  • • 方法三:拟合参数损失函数

结论

这三个实验得到了相同的结论:计算量增加后,模型参数量大小与训练Token数应该同比增加。根据方法1,预测的模型大小需要的训练Token数如下表

重复Token对模型性能的影响

 
  • 模型参数规模与tokens数量需要匹配:模型参数规模的增长与模型需要的tokens数量基本是呈线性的。

  • 多轮epoch的训练会降低模型性能。此外,如果tokens数量不够,模型参数规模越大,越容易出现过拟合的现象

  • 更大规模的数据集会缓解重复epochs对模型性能下降的影响

  • 提高数据集的质量也无法挽救重复训练带来的过拟合

  • 参数数量和FLOPs在重复训练上的影响:发现,FLOPs较大的模型性能会更好一点,但是依然无法有效降低重复训练带来的模型损失

  • 小计算量模型的过拟合趋势与大计算量的差不多

  • 多样的训练目标可以减轻多Epoch下降吗?如果语言模型的训练目标多样化,那么实际上更加可能受到多epoch带来的性能损失。

  • Dropout是一个被大语言模型忽视的正则技术,虽然慢,但是可以降低多epochs的影响

  • 在训练过程中逐渐使用dropout是有效的策略。如果前期训练不用dropout,在后续的迭代中使用dropout也是有效的

  • dropout对不同规模模型的影响不同:尽管前面已经证明dropout使用可以降低多epochs的影响,但是在不同规模模型下是不同的。对于规模较大的模型,dropout不能有效降低多epochs带来的坏处

  • 通过MoE扫描确定稠密模型的最佳超参数:MoE的模型表现与大模型真正的训练有类似的趋势,因此用MoE去提前预估大模型的性能,做参数调优是一个非常好的思路。

sft数据需要多少

参考链接:

https://mp.weixin.qq.com/s/DVH-vlOpGik8iwW4KnPlkw

通过消融实验研究训练数据的多样性、质量和数量的影响,对于对齐的目的,扩大输入多样性和输出质量有可衡量的积极影响,而仅仅扩大数量可能没有。

  • 《LIMa:Less Is More for Alignment》一文的消融实验显示,当扩大数据量而不同时扩大提示多样性时,收益会大大减少,而在优化数据质量时,收益会大大增加。

  • 《MAYBE ONLY 0.5% DATA IS NEEDED》一文的实验表明,特定任务的模型可能从固定的任务类型中获益,以获得更高的性能;指令格式的多样性可能对特定任务模型的性能影响很小;即使是少量的数据(1.9M tokens)也能为特定任务模型的指令调整带来可喜的结果。

训练估算

参考:LLM训练指南:模型参数、计算量、显存、计算时间计算

https://zhuanlan.zhihu.com/p/639872915

参数量

训练时间

(参考资料:复刻ChatGPT语言模型系列 二:参数微调

全量参数微调:Full Fine-tuning

PEFT(Parameter Efficient Fine-Tuning:包括 Lora, P-tuning,Adapter。三种方法都是在Transformer的结构中局部扩展一些可调参数。

Lora

  • 全参训练非常昂贵。微软提出了低秩自适应(LoRA,它冻结了预训练的模型权重,将可训练的秩分解矩阵注入到Transform架构的每一层,极大地减少了下游任务的可训练参数的数量。

  • AdaLora:

  • 分配到更多可微调参数到重要的参数矩阵中可以提高模型的效果,根据参数对Loss的影响大小来来调整LoRa矩阵的秩

  • AdaLORA只裁剪奇异值矩阵,并不裁剪奇异向量,因此训练过程中更容易恢复被误删的奇异值。

  • AdaLORA的P和Q正交矩阵,而LORA的A和B非正交。AdaLORA训练过程中裁剪操作不会影响其他奇异值对应的奇异向量,因此训练会更稳定泛化性能更好

  • QLora: 通过量化减少显存使用

P-tuning

  • Prefix-tuning: 在 transformer的每一层输入增加一个前缀向量(可以微调,固定模型的原有参数。

  • Prompt-tuning: 仅在transformer的第一层输入增加前缀向量,其他同prefix-tuning

  • P-tuning: 将Prompt转换为可以学习的Embedding层,并用MLP+LSTM的方式来对Prompt Embedding进行一层处理

  • P-tuning V2:把prompt转换后的embeding,作为每一层的输入,以持续发挥作用 (类似prefix-tuning

Adapter

  • AdapterTuning(论文:Parameter-Efficient Transfer Learning for NLP[4] 该方法设计了Adapter结构,并将其嵌入Transformer的结构里面,针对每一个Transformer层,增加了两个Adapter结构(分别是多头注意力的投影之后和第二个feed-forward层之后),在训练时,固定住原来预训练模型的参数不变,只对新增的 Adapter 结构和 Layer Norm 层进行微调,从而保证了训练的高效性。

  • AdapterFusion: 融合多任务信息的Adapter的变体,在 Adapter 的基础上进行优化,通过将学习过程分为两阶段来提升下游任务表现。

  • AdapterDrop: 不是每一层均加入 Transformer中均 加入 Adapter,以加速学习和推理性能。效果基本不下降

MAM Adapter

 

MAM(mix-and-match):把上面的几种PEFT的方法进行抽象并泛化,新增其他的形式:Parallel Adapter(PA), Scaled PA(SPA)等

不同的形式的差异如下

作者对Adapter的放置和软提示(soft prompt)进行了详细的调查。得出如下结论

  • • 并行放置的Adapter优于顺序放置的Adapter,并且与 FFN 并行放置的Adapter优于多头注意力(MHA)并行放置的Adapter(模型修改的位置如下图中所示,蓝色表示修改Attention、红色表示修改FFN)。

  • • 软提示可以通过仅更改 0.1% 的参数来有效地修改注意力

最终模型 MAM Adapter 是用 FFN 层的并行Adapter和软提示的组合。通过最终的实验结果,可以看到 MAM Adapter 在仅用了6.7%参数量(相比全量微调)的情况下,在Xsum和MT这两个任务上达到了和全量微调相近的效果,并且该方法大大优于 BitFit 和 Prompt Tuning,并始终优于 LoRA、Adapter 和 Prefix Tuning

UniPELT

 

通过一个门控参数来统一 Lora/p-tuning/Adapter,混合了三种微调方式

UniPELT 仅用 100 个示例就在低数据场景中展示了相对于单个 LoRA、Adapter 和 Prefix Tuning 方法的显著改进。在更高数据的场景中,UniPELT 的性能与这些方法相当或更好。

性能对比如下

感谢你们的阅读和喜欢,我收藏了很多技术干货,可以共享给喜欢我文章的朋友们,如果你肯花时间沉下心去学习,它们一定能帮到你。

因为这个行业不同于其他行业,知识体系实在是过于庞大,知识更新也非常快。作为一个普通人,无法全部学完,所以我们在提升技术的时候,首先需要明确一个目标,然后制定好完整的计划,同时找到好的学习方法,这样才能更快的提升自己。

阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

最新文章
苹果搜狗输入法怎么用
搜狗输入法作为一款备受欢迎的输入法软件,在iOS平台上也提供了丰富的功能和个性化的设置选项。以下是关于如何在苹果手机上设置和使用搜狗输入法的详细步骤。首先,确保你的苹果手机已经下载了搜狗输入法应用。如果尚未下载,可以前往App S
有哪些创意展会项目_有哪些创意展会项目可以参加
上海最近有什么展会吗?广告展会哪里最值得去看?有什么创业的好点子?2021年有哪些工业设计展会?上海2021年11月有什么国际展览会?接近年底,上海年前没有展会了,年后新展网为您推荐:  2019上海国际连锁加盟展览会3月7-9日  举办时
优化外链,缔造网站SEO辉煌76
行业类目外链行业类目外链是指指向特定行业网站的链接。这些链接对于提高网站在搜索引擎中的相关性至关重要。通过获得来自同一行业高权威网站的链接,可以向搜索引擎表明您的网站与该行业相关,从而增强您的搜索排名。例如,如果您经营一家
站点(e.g. Hexo Blog)提交百度搜索引擎收录实现SEO
SEO 指的是搜索引擎优化。通过搜索引擎优化,可以提高网站的网站关键词排名以及博客文章的曝光度。 个人的网站搭建好之后,百度谷歌等搜索引擎其实是收录不到我们网站内容的,并且托管在 Github 上的站点甚至进行了反爬
提升工作效率与创作力:2024年AI绘画与生成文本工具推荐大全
在当今快速发展的数字时代,人工智能(AI)已经在多个领域展现出其强大的潜力。尤其在AI绘画和文本生成方面,相关工具的不断涌现,不仅提升了创作效率,也为自由职业者和创作者打开了新的副业机会。本文将探讨几款优秀的AI工具,分析它们的
【Flash应用宝下载】中兴Flash应用宝8.8.6免费下载
(Android)是腾讯应用中心倾力打造的手机应用商店,致力于为用户丰富、优质、个性化的安卓软件资源和一站式的下载管理体验,全方位覆盖用户的下载、管理、收藏、分享、等多样化需求应用宝2024更新内容1、修复了一些已知的bug应用宝6.7更新
店掌云碰一碰AI矩阵,实体商家营销利器。
店掌云碰一碰AI矩阵工具:解锁实体店铺营销新纪元在数字化浪潮的推动下,实体店铺如何在新媒体时代脱颖而出,实现品牌曝光与销售转化的双赢?店掌云碰一碰AI矩阵工具应运而生,以其独特的功能和显著的优势,为商家提供了一个全新的营销解决
百度优化排名软件,附百度首页排名优化价格
1、哪个网站优化软件比较好?2、百度快速优化排名软件3、网站排名优化软件4、优化排名的软件有哪些?5、刷百度排名软件优化排名软件:优化吧、神箭手、快站、51la、搜狗指数。优化吧 优化吧是一款集关键词排名监测、网站优化、竞争分析、关键
Play free Popular dinosaurs games | bestcrazygames
Each category and title represents a facet of the vast and diverse World of dinosaur-themed gaming, offering something for every type of player, whether they seek adventure, education, strategy, or just plain fun. Building
开天猫店怎么找货源?有哪些方法?(开天猫店怎么操作?流程介绍)
在天猫上面开店,最为重要的就是货源,货源确定好之后,就可以安心地去做推广引流了。不过,对于天猫平台的卖家来说,找货源是个难题,一起来看看卖家朋友要怎么找货源吧。1、线上联系供应商这是很多商家经常会用到的方法。比较常见的货源
相关文章
推荐文章
发表评论
0评