漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-10-16 talkingdev

线性扩散变换器助力高效高分辨率图像合成

近日,研究人员提出了一种高效的线性扩散变换器(linear diffusion transformer),该技术显著提升了高分辨率图像合成的效率。传统的图像合成方法通常面临生成速度慢和计算资源消耗大的问题,而线性扩散变换器通过优...

Read More
2024-10-08 talkingdev

Differential Transformer:革新技术的新前沿

差异化变换器(Differential Transformer)是一种全新的模型架构,旨在提升自然语言处理任务的性能。它通过针对特定输入特征进行更深层次的学习,能够有效捕捉上下文信息,提高理解和生成的准确性。此外,该模型在处...

Read More
2024-10-03 talkingdev

论文:RNN的时代是否已终结?

近年来,随着深度学习技术的快速发展,循环神经网络(RNN)在处理时序数据方面曾被广泛应用。然而,研究者们开始质疑RNN是否仍然是解决此类问题的最佳方案。RNN的结构虽然能够捕捉序列数据中的时间依赖性,但在处理...

Read More
2024-09-16 talkingdev

思维链助力变换器解决序列性问题

随着人工智能领域的不断发展,变换器(Transformers)模型在处理序列性问题方面表现出色。近期的研究表明,思维链(Chain of Thought)技术能够进一步提升变换器的效率,尤其在解决需要多步骤推理的任务时。这一方法...

Read More
2024-07-11 talkingdev

HF Transformers模型初始化速度提升30倍

现在,你可以通过在模型的首次运行中将一些懒加载移动到模型上,以极小的每秒令牌损失来显著提升模型初始化的速度。这种改进将大大提升模型运行效率,为用户带来更流畅的体验。

Read More
2024-07-11 talkingdev

minRF:开源全新的可扩展矩形流转换器

最近,GitHub仓库发布了一款名为minRF的新工具。这个工具主要使用了可扩展的矩形流转换器,部分用于Stable Diffusion 3。这个仓库是一种最小化实现,同时也包括muP超参数扫描功能。可扩展的矩形流转换器是一种强大的...

Read More
2024-07-02 talkingdev

改进推理效率的Block Transformer

这个代码库引入了一种新型的Transformer变压器,其KV缓存大小大幅度减少。虽然尚未在大规模上得到证实,但理论上,它可以匹配常规变压器的性能。这意味着,我们现在有了一种新的工具,可以在处理复杂的计算问题时,...

Read More
2024-06-28 talkingdev

Point-SAM:互动引导下的3D分割变革模型

为满足对详细3D数据的日益增长的需求,研究人员推出了Point-SAM,这是一种基于变革者的3D分割模型。这个模型将大大提高3D数据处理的效率和精度。与传统的3D分割技术相比,Point-SAM能够提供更精细的数据,从而更好地...

Read More
2024-06-27 talkingdev

Director3D开源-现实世界3D场景AI生成框架

近日,一款名为Director3D的新框架引起了行业内的广泛关注。这款框架的设计目标是提升现实世界3D场景的生成和相机轨迹的模拟。Director3D运用了一种名为轨迹扩散变换器(Trajectory Diffusion Transformer)和多视图...

Read More
2024-06-26 talkingdev

Transformer进行分子模型设计:GeoMFormer的全新实践

GeoMFormer是一种全新的基于Transformer的模型,旨在通过学习不变量和等变量特征来改进分子模型。这种模型的设计,彻底改变了传统分子建模的方法,为化学和生物科学的研究者提供了新的视角和工具。GeoMFormer的出现...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page