漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-09-15 talkingdev

在Groq上使用Llama-3.1 70B构建o1类推理链

近日,研究人员利用Llama-3.1 70B模型在Groq平台上实现了o1类推理链的创建。这一创新方法通过结合高效的推理能力和强大的计算性能,提升了机器学习模型在复杂任务中的表现。Groq的硬件架构为Llama-3.1 70B模型提供了...

Read More
2024-07-09 talkingdev

微软开源Minference,大幅提升模型推理速度

微软近日发布了Minference,这是一款能够显著提升支持模型推理速度的系统。通过一系列系统性的改进,Minference能够在不损失准确性的前提下,大大提升模型的推理速度。这一创新举措显示了微软在人工智能领域的巨大投...

Read More
2024-05-21 talkingdev

LeMeViT:通过可学习元令牌加速视觉Transformer

LeMeViT是一种新的方法,通过使用可学习元令牌来降低视觉Transformer的计算成本。这些元令牌能够高效地捕捉关键信息,从而显著提高推理速度。与传统的视觉Transformer相比,LeMeViT在保持高精度的同时,大幅减少了计...

Read More
2024-05-21 talkingdev

论文:LeMeViT利用可学习的元Token实现快速视觉变换器

最近,一种名为LeMeViT的新方法用于降低视觉变换器中的计算成本,其核心策略是使用可学习的元令牌。这些令牌能够有效地捕获关键信息,从而提高推理速度。视觉变换器在计算机视觉领域有着广泛的应用,然而其计算成本...

Read More
2024-05-08 talkingdev

Consistency LLM:将LLMs转换为并行解码器可将推理加速3.5倍

Consistency LLM是一种新的自然语言处理模型,可以将其转换为并行解码器,从而将推理时间缩短至3.5倍。LLM模型是一种具有良好性能的模型,但推理速度较慢。该研究团队将LLM转换为并行解码器,使用了一种名为一致性训...

Read More
2024-04-02 talkingdev

英伟达TensorRT更新,性能提升达28倍,Llama 2基准测试每秒处理1200个令牌

英伟达在其GitHub仓库Optimum-Nvidia中发布了TensorRT的最新更新,这一更新使得AI推理速度大幅提高,达到了比基线快28倍的速度。特别是在Llama 2的基准测试中,能够达到每秒处理1200个令牌的惊人速度。这一进步得益...

Read More
2024-03-18 talkingdev

探索LLM推理的“光速”极限

本文深入探讨了基于变换器的语言模型推理的“光速”理论极限,强调了内存带宽相较于计算能力的重要性。文章通过实例展示了推理速度主要受限于从内存中读取数据的能力,而非执行计算的速度,这对于优化和理解AI性能是一...

Read More
2024-03-11 talkingdev

微软DeepSpeed更新,fp6模型推理速度提升超过2倍

微软的强大DeepSpeed训练库更新了,可以让模型每个参数使用6位。这可以将推理速度提升超过2倍。

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page