漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-07-12 talkingdev

FlashAttention 3:现代快速语言模型的基础升级

FlashAttention是现代快速语言模型的基础,而最新的FlashAttention 3版本则是其重要的升级。与以前的版本相比,新版本使用了75%的H100容量(相比之前的35%有了显著的提升)。这次的能力提升归因于一系列重要的系统改...

Read More
2024-07-11 talkingdev

FlashAttention-3: 异步和低精度实现快速准确的注意力机制

近日,由香港中文大学、清华大学等机构的研究人员提出了一种新的注意力机制模型——FlashAttention-3。相较于传统的注意力机制,FlashAttention-3 实现了异步和低精度计算,从而实现了在保证准确度的同时,大幅提高了...

Read More
2024-01-03 talkingdev

MosaicBERT:针对快速预训练优化的双向编码器

BERT是一种仅有编码器的Transformer。这意味着它通常用于以嵌入形式表示自然语言,而不是用于生成文本。重要的是,它是最早用于搜索的Transformer之一,因为它可以表示查询和要检索的信息。Mosaic团队集成了FlashAtt...

Read More