当前位置:AIGC资讯 > AIGC > 正文

LLaMA-Factory参数的解答

打开LLaMA-Factory的web页面会有一堆参数 ,但不知道怎么选,选哪个,这个文章详细解读一下,每个参数到底是什么含义
这是个人写的参数解读,我并非该领域的人如果那个大佬看到有参数不对请反馈一下,或者有补充的也可以!谢谢(后续该文章可能会持续更新)
LLaMA-Factory项目的地址:https://github.com/hiyouga/LLaMA-Factory/blob/main/README_zh.md

微调方法

        Full Fine-Tuning(全模型微调):

在全模型微调中,将整个预训练模型的参数都解冻,并将它们一起随着新数据的训练而更新。这意味着所有层的权重都将被调整以适应新任务,这种方法通常需要较大的数据集和计算资源,但在某些情况下可以取得很好的效果。

        Freeze Fine-Tuning(冻结层微调):

冻结层微调是指在开始微调时保持一些或全部的预训练模型层权重不变。这些被冻结的层将不会在训练过程中更新其权重,只有新添加的层或解冻的层会进行训练。这种方法可以在新任务数据较少时使用,以防止在训练初期过度拟合。

        LOFA (Layers Freezing) Fine-Tuning(层冻结微调):

LOFA微调是一种介于全模型微调和冻结层微调之间的方法。它允许对模型的不同部分采取不同的微调策略,即一部分层被冻结而另一部分层被解冻并进行微调。通过根据任务特点选择性地解冻部分层,可以在保留预训练模型部分知识的同时让模型更容易适应新任务。

训练阶段

        Supervised Fine-Tuning(监督微调):

这是一种常见的微调方法,通过将预训练模型应用于新任务并使用有标签数据来微调模型,以优化特定任务的性能。

        Reward Modeling(奖励建模):

这是一种用于强化学习(Reinforcement Learning)的方法,通过定义奖励函数来引导智能体学习目标动作或策略。

        PPO(Proximal Policy Optimization):

PPO是一种用于训练强化学习模型的优化算法,旨在提高训练效率并实现稳定性。

        DPO(Differential Privacy Optimization):

DPO是一种优化算法,用于保护数据隐私,并确保在模型训练过程中不会泄露敏感信息。

        Pre-Training(预训练):

预训练是指在目标任务上之前进行的训练,通常使用大型数据集和无标签数据以提取更普适的特征,便于迁移学习或微调到特定任务。

AdamW优化器中的学习率

AdamW优化器中的学习率(learning rate)是指控制模型参数更新步长的超参数。学习率决定了在每次参数更新时权重应该调整的幅度,从而影响模型在训练过程中的收敛速度和最终性能。

在AdamW优化器中,学习率是一个重要的超参数,通常初始化为一个较小的值,它可以随着训练的进行而动态调整。选择合适的学习率有助于避免模型陷入局部最优解或发散,同时还可以提高模型的泛化能力。

调整学习率的过程通常会在训练过程中进行,可能会使用学习率衰减策略(例如指数衰减、余弦退火等)来逐渐减小学习率,以便模型更好地探索损失函数的空间并获得更好的收敛性能。

因此,在AdamW优化器中,学习率是一项关键的超参数,需要仔细选择和调整以确保模型获得良好的收敛性能和最终表现。
 

学习率参数有那些(这些只是参考)

        5e-5:这个学习率适合于相对较大的数据集或复杂的模型,因为较大的学习率可以更快地收敛,尤其是当训练数据为大规模数据集时。

        1e-6:较小的学习率适用于数据集较小或相对简单的模型,可以帮助模型更稳定地学习数据的模式,避免过度拟合。

        1e-3:适用于快速收敛,通常用于较大的深度神经网络和大型数据集。

        1e−4:适用于中等大小的数据集和相对简单的模型。

        5e−4:类似于1e-3和1e-4之间的学习率,适用于中等大小的网络和数据集。

        1e−5:适用于相对小型的数据集或简单的模型,有助于避免快速过拟合。

        1e−7:适用于非常小的数据集或非常简单的模型,有助于更细致地调整参数。

最大梯度范围

最大梯度范数用于对梯度进行裁剪,限制梯度的大小,以防止梯度爆炸(梯度过大)的问题。选择合适的最大梯度范数取决于您的模型、数据集以及训练过程中遇到的情况。

一般来说,常见的最大梯度范数取值在1到5之间,但具体取值要根据您的模型结构和训练数据的情况进行调整。以下是一些常见的最大梯度范数取值建议:

1到5之间:这是一般情况下常见的范围。如果您的模型较深或者遇到梯度爆炸的情况,可以考虑选择较小的范围。

1:通常用于对梯度进行相对较小的裁剪,以避免梯度更新过大,特别适用于训练稳定性较差的模型。

3到5:用于对梯度进行中等程度的裁剪,适用于一般深度学习模型的训练。

更大值:对于某些情况,例如对抗训练(Adversarial Training),可能需要更大的最大梯度范数来维持梯度的稳定性。

选择最大梯度范数时,建议根据实际情况进行试验和调整,在训练过程中观察模型的表现并根据需要进行调整。但通常情况下,一个合理的初始范围在1到5之间可以作为起点进行尝试。

计算类型

在深度学习中,计算类型可以指定模型训练时所使用的精度。常见的计算类型包括:

FP16 (Half Precision):FP16是指使用16位浮点数进行计算,也称为半精度计算。在FP16精度下,模型参数和梯度都以16位浮点数进行存储和计算。

BF16 (BFloat16):BF16是指使用十六位Brain Floating Point格式,与FP16不同之处在于BF16在指数部分有8位(与FP32相同),而FP16只有5位。BF16通常用于机器学习任务中,尤其是在加速器中更为常见。

FP32 (Single Precision):FP32是指使用32位浮点数进行计算,也称为单精度计算。在FP32精度下,模型参数和梯度以32位浮点数进行存储和计算,是最常见的精度。

Pure BF16:这是指纯粹使用BF16进行计算的模式。

在深度学习训练中,使用更低精度(例如FP16或BF16)可以降低模型的内存和计算需求,加快训练速度,尤其对于大规模模型和大数据集是有益的。然而,较低精度也可能带来数值稳定性问题,特别是在训练过程中需要小心处理梯度的表达范围,避免梯度消失或爆炸的问题。

选择何种计算类型通常取决于您的硬件支持、训练需求和模型性能。不同精度的计算类型在模型训练过程中会对训练速度、内存消耗和模型性能产生影响,因此需要根据具体情况进行权衡和选择。

学习率调节器

Linear:线性衰减学习率,即学习率随着训练步数线性减小。

Cosine:余弦退火学习率,学习率按照余弦函数的曲线进行调整,逐渐降低而非直接线性减小。

Cosine with restarts:带重启的余弦退火,学习率的衰减呈现周期性变化,适用于训练过程中逐步放宽约束然后再次加快训练的情况。

Polynomial:多项式衰减学习率,通过多项式函数来调整学习率,可以是二次、三次等。

Constant:固定学习率,不随训练步数变化而保持不变。

Constant with warmup:具有热身阶段的固定学习率,初始阶段固定学习率较大,随后在训练一段时间后降低。

Inverse Square Root:学习率按照步数的倒数的平方根进行衰减,可以平滑地调整学习率。

Reduce Learning Rate on Plateau:当验证集上的损失不再减少时,减小学习率,以更细致地优化模型性能。

更新时间 2024-03-30