漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-14 talkingdev

HF实现模型输入数据打包,提高训练效率

将训练模型中的数据打包是提高训练效率的一种方式,它通过连接示例来实现。如果操作不当,示例之间可能会出现污染,因为注意力机制不知道何时停止。社区发现,使用EOS通常足以解决问题,但仍然可能存在问题。这个仓...

Read More
2024-02-01 talkingdev

Lilac Garden快速聚类技术:将语言模型训练效率提高100倍

在训练语言模型时,一个挑战是为任务找到足够多样化的数据集。更难的是,将这些数据可视化。这个很酷的工具使用快速聚类和主题建模,使得可以探索数据,以改善过滤和整体质量。

Read More
2024-01-23 talkingdev

开源图像字幕软件,帮助AI训练更智能

GitHub最近推出了一款图像字幕软件,能够帮助用户为图像添加字幕以便更好地进行AI训练。这款软件非常轻巧,易于使用,可以快速准确地为图像添加字幕,提高AI的训练效率。该软件支持多种格式的图像文件,包括PNG、JPE...

Read More
2023-12-20 talkingdev

Google Vision开源权重分片,提升多节点系统训练效率

Google的Big Vision项目是一个研究和生产最先进的视觉系统的重要工具库。最近,他们添加了权重分片,使得在多节点系统上的训练更加容易。这个新功能可以将模型分成多个子模型,分别在不同的节点上进行训练,最后再将...

Read More
2023-12-15 talkingdev

HyperRouter方法开源,提高LLM训练效率

HyperRouter方法提高LLM训练效率。该方法通过动态调整路由器参数,进一步提高了大型语言模型训练的效率。

Read More
2023-11-30 talkingdev

论文:使用生成扩散技术提升数据集精华提取

科学家们开发出一种新方法,使用生成扩散技术创建代理数据集,这种数据集具有更好的代表性和更多样化,同时需要的计算资源更少。这种方法可以通过在代理数据集中训练神经网络来提高模型的性能。这种方法可以降低计算...

Read More
2023-11-28 talkingdev

OpenAI内部突破结合搜索和强化学习,Q*是什么

近期泄露的消息称,OpenAI领导层的争端是由内部突破所引起的,该突破将搜索和强化学习结合起来。本文阐述了一种理论,解释了这种新方法的实际运作方式,即Q*算法。强化学习是一种机器学习技术,它通过将智能体放置在...

Read More
2023-11-03 talkingdev

亚马逊推出RoPE微调Mistral 7B模型,支持长文本上下文

亚马逊开始进入开源LLM领域,推出RoPE微调Mistral 7B模型,支持长文本上下文。该模型可在上下文中扩展至32k个令牌,可用于各种自然语言处理任务,例如问答和文本生成。RoPE是亚马逊开发的一种新的训练技术,可提高大...

Read More
  1. Prev Page
  2. 1
  3. 2
  4. 3
  5. Next Page