漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-11-17 talkingdev

AlphaProof技术精选:回顾年度技术亮点

AlphaProof自成立以来,一直致力于技术创新与突破。在近期发布的年度技术精选中,AlphaProof回顾了过去一年内最具代表性的技术成就。从人工智能领域的LLM(大型语言模型)到LoRA(低秩适应)技术,AlphaProof在多个...

Read More
2024-07-19 talkingdev

论文:补丁级别训练技术提高LLMs的效率

研究人员提出了针对大型语言模型(LLMs)的补丁级别训练,以提高训练效率。补丁级别训练是一种新的技术,目的是优化大型语言模型的处理能力。这种方法通过在训练过程中引入更精细的补丁级别,提高了模型的训练效率,...

Read More
2024-07-02 talkingdev

ReaLHF开源-提高训练效率

ReaLHF是一个创新的系统,通过在训练过程中动态重新分配参数并优化并行化,提升了人类反馈的强化学习(RLHF)的效率。这一技术的主要特点在于,它可以根据训练的实际需求,灵活调整系统参数和并行化优化策略,从而实...

Read More
2024-06-24 talkingdev

ReaLHF训练技术开源,刷新训练效率新高度

ReaLHF是一种全新的系统,它通过在训练过程中动态地重新分配参数和优化并行化,以提高来自人类反馈的强化学习(RLHF)的效率。ReaLHF通过创新的技术手段,实现了动态参数分配和并行化优化,从而达到了提高训练效率的...

Read More
2024-06-03 talkingdev

muP:提升稀疏模型训练性能的革命性工具

muP 是一种被所有前沿模型实验室广泛使用的强大工具,用于将小模型上调优的超参数转移到更大、更昂贵的训练任务中。本文探讨了如何将这种技术应用于稀疏模型,从而显著提升训练性能,同时降低计算成本。通过muP,研...

Read More
2024-05-27 talkingdev

Modula-模块化范数方法提升神经网络训练效率

模块化范数是一种全新的神经网络权重更新归一化方法,能够高效扩展不同规模网络的训练。这种方法通过调整网络的权重更新过程,确保在各种网络规模下都能保持高效的训练速度和准确性。与传统的归一化方法相比,模块化...

Read More
2024-05-01 talkingdev

Nvidia推出CUDA-checkpoint工具包:助力分布式训练大型AI模型

Nvidia最近发布了一个新的工具包,可以对CUDA状态进行检查点设置,以便于传输和重启。这一工具包在GitHub上公开,对于大型AI模型的分布式训练非常有用。CUDA状态的检查点设置可以在训练过程中保存模型的状态,以便在...

Read More
2024-04-23 talkingdev

苹果发布CoreNet,用于训练深度神经网络库

苹果公司最近发布了一个名为CoreNet的库,用于训练深度神经网络。这个库旨在帮助开发者更快速、更方便地构建和训练深度学习模型,提高模型的准确性和性能。CoreNet提供了一系列的工具和接口,包括卷积神经网络、递归...

Read More
2024-02-21 talkingdev

OpenRLHF开源,提供基于Ray的RLHF实现

近日,GitHub上有一个新的仓库OpenRLHF发布了。这是一个基于Ray的RLHF实现,专为Llama样式模型设计。该仓库集成了多种PPO稳定技巧,以提高性能。Ray是一款新型的分布式计算框架,它具有高效、易用等特点,支持快速构...

Read More
2024-02-14 talkingdev

HF实现模型输入数据打包,提高训练效率

将训练模型中的数据打包是提高训练效率的一种方式,它通过连接示例来实现。如果操作不当,示例之间可能会出现污染,因为注意力机制不知道何时停止。社区发现,使用EOS通常足以解决问题,但仍然可能存在问题。这个仓...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page