漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-20 talkingdev

xAI公开发布具有3140亿参数的Grok-1模型

xAI近期公开发布了Grok-1模型的权重和架构。Grok-1是一种混合专家模型,拥有3140亿参数。发布的模型是Grok-1预训练阶段的原始基础模型检查点,这意味着它并未针对任何特定应用进行精调。该模型是由xAI使用自定义训练...

Read More
2024-04-12 talkingdev

JetMoe:性能媲美Meta Llama 2 7B的AI模型,成本仅为10万美元

JetMoe是一个基于混合专家模型的新AI系统,通过使用公共数据集和合理的计算资源进行训练,其性能与Meta的Llama 2 7B模型相媲美,但成本仅为10万美元。这一突破性的技术成果不仅展示了在不牺牲性能的前提下降低AI模型...

Read More
2024-03-28 talkingdev

Databrix和Mosaic联手打造132B参数MoE模型

科技巨头Databrix与Mosaic合作,成功训练了一个具有132B参数的混合专家(MoE)模型。该模型在3000个H100 GPU上进行了训练,目前其权重文件已经公开发布。此外,该模型也已在Databricks API上提供服务,供企业和开发...

Read More
2024-01-29 talkingdev

从零开始实现稀疏混MOE合专家语言模型

本文将提供一个使用Pytorch从零开始编写稀疏混合专家模型的教程,图文并茂地讲解了每一步骤并提供了代码。其中,对top-k路由的解释特别有见地。

Read More
2023-12-12 talkingdev

Mistral发布新模型并宣布获得新一轮融资

人工智能公司Mistral将在新一轮融资中获得超过4亿美元的资金。该公司还发布了一款8x7B混合专家模型,目前正在社区进行评估。Mistral致力于为客户提供最优质的人工智能产品和服务。他们的新一轮融资将用于推动产品开...

Read More
2023-11-03 talkingdev

MoE PEFT代码发布:Cohere AI的参数高效微调模型

Cohere AI的研究部门For AI开发了用于混合专家模型的参数高效微调方法,称为MoE PEFT。该算法可显著提高模型的微调效率,同时保持准确性。最近,该团队公开了该算法的GitHub代码库,为社区提供更多研究资源和工具。C...

Read More
2023-09-18 talkingdev

IBM正式挑战语言模型领域,推出开源MoE模型

IBM近日发布了一系列混合专家模型(Mixture-of-Experts,MoE),并公开了它们的架构和部分代码。MoE模型是一种稀疏模型,意味着在不牺牲准确性的情况下,可以节省计算资源。然而,训练这种模型却颇具挑战性。这次IBM...

Read More
2023-09-15 talkingdev

MoEs模型在参数效率上的极限突破

混合专家模型(MoEs)是一种增加模型容量的有效方法,同时不会增加每个令牌的运行时间。然而,让它们快速运行并进行微调仍然具有一定的难度。最新研究发现,如果你能有效地修改密集模型参数,以配合MoEs的微调,就能...

Read More
2023-08-07 talkingdev

什么是MOE混合专家模型

目前使用的语言模型有两大类:密集型和稀疏型。密集型模型就像传统的2017年的变压器模型,每个令牌都使用每个模型参数。稀疏型模型在此后不久就被引入,它使用一种路由机制(通常是学习到的),这意味着每个令牌只使...

Read More
2023-08-04 talkingdev

论文:SoftMoE,一种改进的稀疏混合专家模型,低成本提高模型容量

SoftMoE 是一种新的模型架构,它改进了稀疏的混合专家(MoE)模型。通过使用软分配方法,每个专家处理输入令牌的子集,SoftMoE以更低的成本提供了更大的模型容量。在视觉识别任务中,SoftMoE的表现超过了标准的变压...

Read More
  1. Next Page