漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-18 talkingdev

xAI公开发布Grok-1模型权重与架构

人工智能领域的领先企业xAI近日宣布,已将其拥有3140亿参数的Mixture-of-Experts模型——Grok-1的权重和架构公开。Grok-1采用JAX编写,并融入了现代Transformer架构,包括GeGLU、ROPE、三明治范数等先进技术。此次公开...

Read More
2024-03-15 talkingdev

Branch-Train-MiX:将专家LLM混合到Mixture-of-Experts LLM中

这项工作表明,您可以单独训练模型,然后将它们合并成单个Mixture-of-Experts模型。

Read More
2024-02-27 talkingdev

专家级稀疏化技术提高LLMs效率

研究人员开发了一种新方法,通过采用专家级稀疏化方法来使LLMs更加高效和易于使用,该方法可以在不损失性能的情况下减少模型大小。这对于Mixture-of-Experts LLMs尤其有用,这种模型通常太大而不易处理。

Read More
2023-09-18 talkingdev

IBM正式挑战语言模型领域,推出开源MoE模型

IBM近日发布了一系列混合专家模型(Mixture-of-Experts,MoE),并公开了它们的架构和部分代码。MoE模型是一种稀疏模型,意味着在不牺牲准确性的情况下,可以节省计算资源。然而,训练这种模型却颇具挑战性。这次IBM...

Read More