漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-11-18 talkingdev

Llama 3.1 405B模型在Cerebras AI加速器上实现高效率

近期,人工智能领域的进步再次迎来了一个重要的里程碑。Llama 3.1 405B,一个领先的大型语言模型,现在在Cerebras AI加速器上运行时,实现了每秒969个令牌的处理速度,这在业界是一个显著的性能提升。Cerebras Infer...

Read More
2024-10-19 talkingdev

Svelte 5 正式发布,带来全新功能与性能提升

Svelte 5 近日正式发布,作为一款领先的前端框架,Svelte 5 在性能和开发体验方面进行了多项重大改进。新版本引入了更高效的编译器,能够将应用程序转换为更小、更快的原生 JavaScript 代码,显著提升了加载速度和运...

Read More
2024-10-16 talkingdev

Ion编译器后端优化新进展

Ion编译器作为一款高效的编译工具,其后端优化一直是技术团队关注的重点。近期,Ion团队在后端优化方面取得了显著进展,旨在提升编译效率和运行性能。通过引入先进的代码生成技术和优化算法,Ion编译器能够更好地利...

Read More
2024-07-28 talkingdev

深入解析同时多线程技术

同时多线程技术(SMT)是一种允许多个线程在同一时间段内共享同一个处理器的技术。在SMT中,处理器将其物理资源分配给多个逻辑处理单元,从而使它们可以同时执行不同的指令。SMT的实现依赖于处理器架构,其中最常见...

Read More
2024-07-26 talkingdev

Zen 5的2-ahead分支预测器:如何利用30年前的想法实现新功能

Zen 5是AMD公司的一款最新处理器,它的2-ahead分支预测器是一项重要的技术创新。这种分支预测器可以帮助CPU在处理指令时更快地判断分支的方向,从而避免处理器浪费时间在错误预测上。这项技术的基础理论可以追溯到30...

Read More
2024-07-10 talkingdev

学习在测试时:新型RNN变体超越Mamba

最近,一种新型的循环神经网络(RNN)变体在多项任务中的表现超过了Mamba。这种新型的RNN变体的重要特点是其更新函数本身就是一个机器学习(ML)模型。这使得它可以处理长上下文和在上下文中进行学习。在现今的机器...

Read More
2024-07-02 talkingdev

RAM遵循长度约束指令:模型调优新方法

在众多的模型中,大多数都不能遵循长度要求,例如少于40个词。然而,最近的研究显示,我们可以通过调优使它们达到这样的要求。这项工作的关键在于调整模型的参数,使其能够根据要求生成特定长度的输出。这一发现可能...

Read More
2024-07-02 talkingdev

论文:以10亿人格特征来创建合成数据的新方法

近期,一项新的研究将网络文本视为来自某种“人格”,并以此作为条件,显著提高了下游任务的性能。研究人员发现,在数学领域,这种方法使性能提升了20个百分点。这项研究的方法是通过大规模网络文本数据,创造出约10亿...

Read More
2024-06-27 talkingdev

Surface Pro X引领Windows on Arm性能飞跃

自2019年微软发布Surface Pro X以来,基于Arm架构的Windows操作系统体验取得了显著提升。Surface Pro X搭载的定制版高通SQ1处理器,不仅在能效上优于传统x86架构处理器,更在兼容性和性能上做了大量优化工作。通过持...

Read More
2024-05-10 talkingdev

CLLM一致性语言模型:开创新的预测范式

预测多个令牌的同时生成是当前被积极研究的一个有趣的范式。如果成功,这将大大提高许多大型语言模型的生成速度。本篇文章中的方法,模仿了图像合成中的一致性模型,试图在精调的LLMs上使用并行解码策略来加快生成速...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page