漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品

Databrix和Mosaic联手打造132B参数MoE模型

talkingdev • 2024-03-28

689634 views

科技巨头Databrix与Mosaic合作,成功训练了一个具有132B参数的混合专家(MoE)模型。该模型在3000个H100 GPU上进行了训练,目前其权重文件已经公开发布。此外,该模型也已在Databricks API上提供服务,供企业和开发者使用。此次发布的MoE模型在多项性能指标上均有出色表现,预示着人工智能领域的又一重大突破。

核心要点

  • Databrix和Mosaic合作开发132B参数的MoE模型
  • 模型在3000个H100 GPU上完成训练并开放权重文件
  • 通过Databricks API,企业和开发者可以直接使用该模型

Read more >