语言模型微调综述
前言
微调的方法越来越有效,开源环境也越做越好,是真佩服这些大佬。
干啥啥不行,抄代码第一名。有时间稍微看点综述吧,整个脉络和体系应该再了解一下。
参考:Prompt-Tuning:深度解读一种新的微调范式,让天下没有难Tuning的大模型-PEFT技术简介
Fine-tuning
预训练模型
Masked Language Modeling(MLM)
遮掩式的自监督训练
一些变体:
Whole Word Masking(WWM)分词处理
Entity Mention Replacement(EMR)实体遮掩
Next Sentence Prediction(NSP)
句子的关系处理,通过
[cls]
来做判断作用不明显,大部分任务不做NSP
下游任务
容易过拟合,难以持续学习
Prompt-Tuning
定义
构建模板(Template Construction)
标签词映射(Label Word Verbalizer)
GPT-3和PET
Prompt-Tuning的鼻祖,定义中的两个组件
Prompt是对下游任务的指令,是一种信息增强
Prompt是参数有效性学习
基于Prompt的统一范式
万物皆可生成
万物皆可抽取
万物皆可推理
大模型的Prompt-Tuning
上下文学习 In-Context Learning(ICL)
指令学习 Instruction-tuning
思维链 Chain-of-Thought(CoT)
P-Tuning
比Prompt-Tuning更优雅的存在
P-Tuning的prompt是token,是soft prompt、是隐式的、经过训练的、模型认为最优的prompt token。
P-Tuning v2甚至在每层增加token,ChatGLM-6B的ptuning效果很好。
LoRA
Low-Rank Adaptation
CV NLP 两开花
训练的一些tips
对抗式的学习(FGM, PGD,FreeLB)
指数移动平均(EMA)