漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-05 talkingdev

AI2发布全面开放的开放语言模型OLMo

AI2发布了一个完全开放的语言模型训练框架,名为OLMo。该模型提供全面的资源,包括完整的训练数据、模型权重、训练和评估代码、每个模型超过500个检查点,以及未来的微调代码,所有这些都遵循Apache 2.0许可证。这些...

Read More
2024-02-02 talkingdev

FireLlava-商业许可的视觉模型开源

FireLlava是一个新的开源视觉模型,经过数据训练,可以用于商业任务。它与原始Llava的性能相当,但还没有达到Llava 1.5的水平。

Read More
2024-02-02 talkingdev

Weaver-专注于讲故事的基础模型

Weaver是一系列专门用于讲述故事的模型。最大的模型(34B参数)在故事讲述基准测试中表现优于GPT-4。

Read More
2024-02-01 talkingdev

Pytorch实验性浮点8训练

使用较低精度的模型训练速度更快、更便宜,但不稳定。最近有很多关于量化训练的研究。这个代码库建立在这些基础上,提供易于阅读和可修改的代码,实现浮点8训练。

Read More
2024-02-01 talkingdev

Lilac Garden快速聚类技术:将语言模型训练效率提高100倍

在训练语言模型时,一个挑战是为任务找到足够多样化的数据集。更难的是,将这些数据可视化。这个很酷的工具使用快速聚类和主题建模,使得可以探索数据,以改善过滤和整体质量。

Read More
2024-01-31 talkingdev

Meta发布CodeLlama 70B模型

Meta的新模型已经在大量代码上进行了精调和指令调整。它们在HumanEval测试中表现出色,在某些方面接近于GPT-4。这些模型可在Meta许可下和HuggingFace上使用。

Read More
2024-01-26 talkingdev

Local-SGD:谷歌开源高效LLM训练方法

研究人员探索了一种名为异步Local-SGD的新的语言模型训练方法。这种方法是联邦平均的一种变体。

Read More
2024-01-23 talkingdev

机器学习工程开源书籍发布

机器学习工程开源书籍发布,该项目是一个开放的方法论集合,旨在帮助成功训练大型语言模型和多模态模型。该材料适用于LLM/VLM培训工程师和运营人员。书籍包含大量脚本和复制粘贴命令,以使读者能够快速解决问题。该...

Read More
  1. Prev Page
  2. 6
  3. 7
  4. 8
  5. Next Page