漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-09-14 talkingdev

ExLlamaV2:在消费级GPU上运行本地LLMs的推理库

ExLlamaV2是一个在GitHub上开源的项目,它是为现代消费级图像处理单元(GPU)上运行本地语言模型(LLMs)而设计的推理库。这款推理库的出现,可以帮助用户在个人电脑上使用现代GPU进行深度学习模型的推理计算,而无...

Read More
2023-09-11 talkingdev

在浏览器中运行现代深度学习模型——Web AI

随着技术的成熟,WebAssembly的热度逐渐降低。现在,WebAssembly已经足够好,可以在很多生产场景中使用,包括基于浏览器的模型部署。Web AI是一个GitHub仓库,它允许在浏览器中运行现代深度学习模型,这标志着WebAss...

Read More
2023-08-31 talkingdev

CUDA图表助力深度学习模型性能提升,加速Llama 2速度达2.3倍

近日,一篇深度解析如何使用PyTorch 2.0的torch.compile和Nvidia CUDA图表功能提升深度学习模型性能的文章引起了广泛关注。该文章详细介绍了借助CUDA图表在Llama 2上实现了2.3倍的速度提升。这对于对性能敏感的AI从...

Read More
2023-08-22 talkingdev

AI的初期阶段:从LLMs、Transformer到扩散模型

我们当前的时代正处于一个全新的人工智能阶段,这个阶段的特点是LLMs、变压器和扩散模型的广泛应用。这与以往的人工智能发展阶段有着明显的区别。LLMs是一种复杂的深度学习模型,可以处理大量的数据并预测结果。变压...

Read More
2023-08-21 talkingdev

贝叶斯流网络算法开源

贝叶斯流网络是一种新颖的架构和训练算法。这是一份简洁、非官方的论文复制品。目标是构建一个可以扩展到GPT-2大小模型的代码库。贝叶斯流网络的出现,为深度学习模型的训练带来了新的可能性,其独特的结构和训练方...

Read More
2023-08-18 talkingdev

KernelWarehouse提出一种构建卷积核的更智能方式

KernelWarehouse提出了一种新的动态卷积方法,通过更高效地分解和重组卷积核,为计算机视觉带来了新的可能。这种方法通过在各层之间巧妙地共享和混合预定义的部分,可以使用更少的参数,实现更大的灵活性和强大的功...

Read More
2023-07-04 talkingdev

人脑活动的潜在扩散模型实现高分辨率图像重建

研究人员提出了一种新的方法,使用一种扩散模型,具体来说是一种名为稳定扩散的潜在扩散模型(LDM),从通过fMRI捕获的人脑活动中重建高分辨率、高保真度的图像。该方法在保持生成性能的同时减少了计算成本,无需对...

Read More
2023-05-23 talkingdev

探索注意力机制和Transformer技术

注意力机制和Transformer技术是现代语言模型更加高效的关键,本文将深入探讨它们的作用。 ## 核心要点 - 注意力机制是一种机器学习技术,可使模型更加聚焦于输入中有用的部分。 - Transformer是一种基于注意力机制...

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page