漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-09-16 talkingdev

思维链助力变换器解决序列性问题

随着人工智能领域的不断发展,变换器(Transformers)模型在处理序列性问题方面表现出色。近期的研究表明,思维链(Chain of Thought)技术能够进一步提升变换器的效率,尤其在解决需要多步骤推理的任务时。这一方法...

Read More
2024-07-11 talkingdev

HF Transformers模型初始化速度提升30倍

现在,你可以通过在模型的首次运行中将一些懒加载移动到模型上,以极小的每秒令牌损失来显著提升模型初始化的速度。这种改进将大大提升模型运行效率,为用户带来更流畅的体验。

Read More
2024-07-11 talkingdev

minRF:开源全新的可扩展矩形流转换器

最近,GitHub仓库发布了一款名为minRF的新工具。这个工具主要使用了可扩展的矩形流转换器,部分用于Stable Diffusion 3。这个仓库是一种最小化实现,同时也包括muP超参数扫描功能。可扩展的矩形流转换器是一种强大的...

Read More
2024-06-25 talkingdev

本地语音聊天机器人June:结合Ollama、Hugging Face Transformers和Coqui TTS Toolkit的能力

最近,一款名为“June”的本地语音聊天机器人引起了业界的注意。这款聊天机器人结合了Ollama、Hugging Face Transformers和Coqui TTS Toolkit的技术,实现了高效的人工智能对话功能。“June”通过这三种强大的工具,可以...

Read More
2024-06-12 talkingdev

论文:改变Transformers计算效率,用结构化矩阵替代密集层

当前,大多数用于Transformers的计算花费在线性层上。这项工作利用muP和Monarch矩阵构建了一个结构化表示,不仅减少了计算量,而且比原始的密集层拥有更好的扩展规则。这项技术可以提高计算效率,降低运算成本,为AI...

Read More
2024-05-21 talkingdev

研究人员发现针对视觉变换器(Vision Transformers)的新型后门攻击手法

近日,研究人员发现了一种针对视觉变换器(Vision Transformers)的新型安全威胁。这种被命名为“SWARM”的攻击手法,利用一个“切换令牌”秘密激活模型中的后门行为,使其对用户具有高度的隐蔽性和危险性。视觉变换器是...

Read More
2024-05-02 talkingdev

深度解析:Gemma的Transformer架构详解

理解Transformer的工作原理常常需要多次尝试。本篇博客文章通过详细解读Gemma架构,帮助读者深入理解Transformer。文章内容明了,包含了代码和图解,无论是对于初学者还是专业人士来说,都能从中获取到有价值的信息...

Read More
2024-05-01 talkingdev

论文:探索Mamba,先进计算机视觉的视觉基础模型

Mamba模型是一种先进的方法,擅长处理长序列,而不会带来传统Transformers的计算缺点。在计算机视觉领域,Mamba模型已经取得了显著的成果,并在多个应用中展现出其优越性。相比于传统的Transformers模型,Mamba模型...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page