漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-14 talkingdev

MMI智能:AI普及化的下一个趋势

群体混淆智能(MMI)的概念代表了从传统的单一AI扩展向基于分布式、基于代理的系统的模型的转变,这些系统可以实时学习和适应。MMI的理念根植于具体化、边界智能、时间性和个体性的原则,倡导强调具有一定自主性和相...

Read More
2024-01-22 talkingdev

Stablecode3B:比7B的CodeLlama更出色,可在MacBook上本地运行

据悉,最近发布的Stablecode 3B模型表现出色,其强大的性能超过了7B的CodeLlama模型。同时,该模型的尺寸足够小,能够在MacBook上本地运行,无需像7B模型一样需要大量的计算资源。这一模型的发布,标志着技术领域的...

Read More
2023-12-15 talkingdev

论文:一种高效压缩LLM模型方法

这项研究介绍了一种使用降阶建模压缩大型语言模型的方法,可以显著减少内存和时间限制,而无需高端硬件。由于大型语言模型在自然语言处理中的应用越来越广泛,因此压缩这些模型以提高计算效率变得尤为重要。研究人员...

Read More
2023-11-30 talkingdev

论文:使用生成扩散技术提升数据集精华提取

科学家们开发出一种新方法,使用生成扩散技术创建代理数据集,这种数据集具有更好的代表性和更多样化,同时需要的计算资源更少。这种方法可以通过在代理数据集中训练神经网络来提高模型的性能。这种方法可以降低计算...

Read More
2023-10-30 talkingdev

论文:LLM-FP4,一种新型的LLM压缩方法

在最新的研究中,科学家们介绍了一种名为LLM-FP4的新型方法,该方法能够通过在训练后将大型语言模型的权重和活动转换为4位浮点值,实现对其进行压缩。这种技术的创新之处在于,它不仅能够显著减少模型的存储需求,还...

Read More
2023-09-21 talkingdev

OpenPipe开源,将昂贵的提示工程转为更低价模型

OpenPipe是一种基于少数提示行为的模型简化工具。在当前的人工智能领域,模型的训练和部署往往需要大量的计算资源和时间,这对许多用户来说是一种负担。然而,OpenPipe的出现改变了这一状况。它通过利用少数提示行为...

Read More
2023-09-19 talkingdev

更高效的微调视觉变换器

对预训练的视觉模型进行特定任务的微调,通常需要大量额外的计算能力。然而,研究人员已经提出了一种名为“显著通道调整”(SCT)的方法,这种方法可以智能地选择模型中需要微调的部分,使用的额外设置要远少于其他方...

Read More
2023-09-18 talkingdev

IBM正式挑战语言模型领域,推出开源MoE模型

IBM近日发布了一系列混合专家模型(Mixture-of-Experts,MoE),并公开了它们的架构和部分代码。MoE模型是一种稀疏模型,意味着在不牺牲准确性的情况下,可以节省计算资源。然而,训练这种模型却颇具挑战性。这次IBM...

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page