漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-06-12 talkingdev

Meta如何规模化训练大型语言模型

近日,Meta公司公布了一篇关于其如何规模化训练大型语言模型的论文。该论文详细介绍了Meta公司的训练方法,该方法可以同时训练多达14亿个参数的语言模型。该规模远超以往的语言模型训练规模,并且可以在更短的时间内...

Read More
2024-06-04 talkingdev

FineWeb:高质量网络规模文本数据集发布

训练语言模型需要数万亿高质量的标记数据。关于这些数据集构建的信息大多未公开。然而,FineWeb团队在一篇精彩的博文中讨论了不同的数据集清理和过滤策略。文章的作者们发布了许多顶级的数据集,用于语言模型训练。...

Read More
2024-05-13 talkingdev

论文:自动检测大型语言模型中的未充分训练的标记

语言模型依赖于单独训练的标记生成器。这些标记生成器可能会产生在语言模型训练过程中从未见过的标记。即使在最强大的现代语言模型中,也存在许多此类标记。本文探讨了这种现象,并提出了识别和处理这些标记的方法。...

Read More
2024-03-26 talkingdev

Cerebras推出新型CS3芯片,支持24T参数语言模型训练

Cerebras公司近日推出了其最新款的CS3晶圆芯片,该芯片具备训练高达24T参数语言模型的能力。CS3芯片的发布,标志着在人工智能领域对高性能计算芯片的需求得到了进一步的满足。这款芯片原生支持PyTorch,使得开发者能...

Read More
2024-03-25 talkingdev

Databricks Mosaic团队分享fp8训练技巧与精度降低带来的优势

Databricks Mosaic团队在语言模型训练领域不断创新。在最近的一篇文章中,他们讨论了用于fp8训练的训练技术栈,以及通过降低精度所带来的一些优势。fp8作为一种新兴的计算精度格式,能够在保持足够精度的同时,大幅...

Read More
2024-03-19 talkingdev

16种不同的分词器预训练同一模型揭秘

现代语言模型的一个奇特事实是,在训练模型之前,我们首先训练分词器。另一个奇怪的事实是,在大规模场景下,词汇量大小似乎并不是那么重要。本文将深入探讨这两种现象,分析分词器在模型预训练中的角色和影响,以及...

Read More
2024-03-18 talkingdev

AMD GPU上的多节点大型语言模型训练解析

本文详细介绍了Lamini公司在AMD GPU上进行大型语言模型训练的技术架构。这包括了他们所使用的调度程序、模型训练技术以及其他相关技术细节。Lamini的技术团队选择了AMD GPU作为硬件加速平台,以优化模型训练的性能和...

Read More
2024-02-12 talkingdev

HF开源轻量级评估库 lighteval

HuggingFace发布了一个轻量级的评估库lighteval,用于基于HELM和Eluther AI评估工具的语言模型训练。该评估库专注于提供高效易用的评估方法和指标,帮助用户快速准确地评估模型性能。同时,lighteval还提供了丰富的...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page