漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-06-26 talkingdev

Transformer进行分子模型设计:GeoMFormer的全新实践

GeoMFormer是一种全新的基于Transformer的模型,旨在通过学习不变量和等变量特征来改进分子模型。这种模型的设计,彻底改变了传统分子建模的方法,为化学和生物科学的研究者提供了新的视角和工具。GeoMFormer的出现...

Read More
2024-06-20 talkingdev

Logit Prisms:分解Transformer输出以提高解释性

Logit Lens方法已经得到了增强,该方法通过分解logit输出,帮助我们理解Transformer模型的决策过程。这种方法使用“prisms”来处理残差流,注意力层和MLP层,揭示了这些部分如何影响预测,并为gemma-2b模型执行的诸如...

Read More
2024-04-05 talkingdev

DeepMind研究实现Transformer模型动态计算优化

现代变压器模型在处理数据时,每个数据单元都使用相同的预测计算量,但事实上,不同数据单元的预测难度差异很大。DeepMind的最新研究突破了这一限制,允许模型在生成过程中根据数据单元的难易程度提前退出,从而减少...

Read More
2024-04-04 talkingdev

论文:新型DiJiang技术助力Transformer模型高效瘦身

科研团队近期推出了一项名为DiJiang的创新技术,旨在将现有的Transformer模型转化为更精简、更快速的版本,同时避免了重新训练模型所需的巨大成本。DiJiang技术通过优化模型结构,大幅减少了计算资源的消耗,使得Tra...

Read More
2024-02-26 talkingdev

Stability AI发布Stable Diffusion 3,模型参数达80亿

Stability AI宣布推出Stable Diffusion 3,这是一款类似于OpenAI的Sora的Diffusion Transformer。公司训练了一套模型,参数范围从8亿到80亿,这是从以前的图像生成模型中跨越式的飞跃。这些模型将在经过一段时间的研...

Read More
2024-02-12 talkingdev

MetaTree:基于Transformer的决策树算法

近日,一种名为MetaTree的新型决策树算法在GitHub上公开发布。与传统的决策树算法不同,MetaTree采用Transformer模型进行学习,从而提高了泛化能力。根据开发者的介绍,MetaTree在多个数据集上进行了测试,结果表明...

Read More
2024-01-31 talkingdev

基于Transformer的大词汇量3D扩散模型

3D对象生成的一个关键挑战是可以创建的物品的多样性。本研究使用修改后的架构来提高样本效率,并将系统扩展到可以处理每个3D类别中更大的对象集。

Read More
2024-01-31 talkingdev

RWKV发布Eagle 7B模型

RWKV是主流Transformer模型的一种架构替代方案。它使用一种新颖的线性注意力机制,使其极其高效。这个新的检查点和配置是在1T令牌上训练的,超越了许多其他功能强大的基于7B Transformer的模型。

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page