漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-08-17 talkingdev

深度解析:transformer模型训练背后的数学原理

本文将深入探讨热门的《transformer数学101》文章,以及基于transformer架构的高性能分布式训练。变形金刚模型已经在深度学习领域广泛应用,其强大的处理能力和优异的性能表现赢得了业界的一致好评。然而,对于这种...

Read More
2023-08-15 talkingdev

Outlines:一种用于神经文本生成的开源库

Outlines是一个用于神经文本生成的库。它帮助开发人员通过与外部系统建立强大的接口来指导文本生成。Outlines与所有模型兼容,可以作为transformers库中generate方法的更灵活的替代品使用。

Read More
2023-08-09 talkingdev

新型图像增强方式:双聚合变换器(DAT)开源

研究人员已经开发出一种新的方法,叫做双聚合变换器(DAT),该方法通过空间和通道注意力来提升图像的超分辨率效果。DAT使用了诸如自适应交互模块和空间门前馈网络等特殊工具,其性能优于当前的其他方法。空间和通道...

Read More
2023-08-08 talkingdev

TorchScale——提供高效有效的Transformers扩展的PyTorch库

TorchScale是一款PyTorch库,让研究者和开发者能够更高效、更有效地扩展Transformers。它是为了满足对于大规模数据处理的需求而生的工具,通过使用TorchScale,我们可以在保持高性能的同时,实现Transformers的扩展...

Read More
2023-08-07 talkingdev

制造TPU的公司开启了新的芯片业务

近段时间来,大家在讨论的焦点主要集中在计算瓶颈问题上。这通常意味着创业者们将深入研究找出解决方案。一家新公司正在试图制造专门的Transformer芯片。我们希望这种芯片不仅可以用于推断,还能应用于训练。虽然这...

Read More
2023-08-03 talkingdev

新研究提出‘聚焦线性注意力’方法,提升视觉变压器的效率与功效(GitHub Repo)

最新研究中,科研人员引入了一种名为‘聚焦线性注意力’的新方法,使变压器(Transformers)变得更为高效和强大。研究人员设计了新的映射函数和秩恢复模块,旨在在保持计算需求较低的同时,提升模型的性能。这一突破性...

Read More
2023-07-31 talkingdev

谷歌机器人新突破:transformer模型助力机器人性能全面提升

transformer模型帮助机器人看,帮助机器人计划,甚至帮助机器人控制?看起来,变形金刚正在继续吞噬世界,这是谷歌在机器人技术方面的最新尝试,利用强大的预训练模型改善机器人的各种性能。这一新的尝试使得机器人...

Read More
2023-07-27 talkingdev

免费课程揭秘音频变压器技术

近年来,使用变压器生成内容的技术日益流行,但其实这样的技术难以入门,而且更难找到相关的学习资料。好消息是,HuggingFace公司最近推出了一门极好的新课程,详细介绍了如何处理音频数据以及如何训练变压器。这门...

Read More
  1. Prev Page
  2. 11
  3. 12
  4. 13
  5. Next Page