漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-09-11 talkingdev

利用Google Cloud TPUs调优LLaMa3.1的创新方案

在技术社区中,近日有开发者分享了利用Google Cloud TPUs对LLaMa3.1进行调优的经验和方法。这一过程不仅展示了TPUs在处理大型模型时的卓越性能,还强调了调优过程中的一些关键技术细节。调优LLaMa3.1的过程中,开发...

Read More
2024-04-08 talkingdev

Meta开源新模型训练优化器代码,无需LR调度

Meta的研究团队近日推出了一款新型的优化器,并已在X平台上公开代码及其多种集成方式。这款优化器的独特之处在于它不依赖于学习率(LR)调度,训练过程中无需预先设定总步数。经过实证,该优化器在包括语言模型在内...

Read More
2024-03-05 talkingdev

论文:为什么学习率可以转移?

一篇理论论文试图解释MuP超参数转移的成功。其作者发现训练损失Hessian矩阵的最大特征值与网络的宽度和深度无关。

Read More
2024-02-21 talkingdev

如何在AdamW中联动调整学习率和权重

AdamW通常用于解耦学习率和权重衰减。然而,Pytorch中的常见实现并没有明确地做到这一点。本文讨论了如何调整这些参数。 AdamW是一种优化算法,它在Adam的基础上加入了权重衰减。AdamW的优点之一是可以解决权重衰减...

Read More
2023-07-17 talkingdev

通过长步距优化,证明了收敛速度的显著提升

优化方法的收敛速度是一个数学极限,它决定了在该优化方法指引下,模型找出最佳解决方案的快慢。最新研究发现,周期性学习率可以通过偶尔采取巨大步长得到改进。这项研究极具说服力,它揭示了通过增加优化步骤长度,...

Read More