漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-10-16 talkingdev

Anyscale-将Llama 2的冷启动时间缩短至30秒

将模型从云存储加载到节点GPU通常需要大部分推理时间。通过一些巧妙的技巧,例如内存流,Anyscale将其缩短了20倍,仅需30秒即可到达Llama 2 70B。

Read More
2023-10-06 talkingdev

深度解析:全面探讨分布式训练和高效微调的一切

在多GPU和多节点系统上训练语言模型存在多种挑战,且在这些场景下积累经验也非常困难。本篇博客文章详尽深入地研究了ZeRO,FSDP,以及在大规模训练或微调模型时可能遇到的问题。我们需要理解,进行分布式训练并不仅...

Read More
2023-10-03 talkingdev

视频模型高效训练,仅需一台机器和八个标准GPU

训练优秀的视频模型通常需要巨大的资源,这种需求往往超出了学术界的承受范围。现在,研究人员已经找到了一种方法,只需要使用一台配备八个标准GPU的机器,在一天内就能完成这些模型的训练。这意味着,我们不再需要...

Read More
2023-10-03 talkingdev

Cloudflare推出全球GPU网络上的无服务器AI推断平台——Workers AI

Cloudflare近日发布了一款名为“Workers AI”的无服务器人工智能推断平台,该平台运行在其全球GPU网络上。Workers AI提供了多种流行的开源模型,并与Hugging Face进行了合作。通过无服务器计算的方式,用户可以在Cloud...

Read More
2023-09-27 talkingdev

AI的2000亿美元问题:生成性AI崛起引发的挑战和机遇

近期,由Nvidia的成功案例所代表的生成性AI的热潮预示着对GPU和AI训练的巨大需求,这也引发了该行业的重大投资。在此背景下,各大科技公司正在推动这一增长,而初创公司面临的挑战则是将关注点从基础设施转向为终端...

Read More
2023-09-27 talkingdev

LAION推出OpenLM:中等规模模型的新选择

OpenLM是一个专为训练最多可达70亿参数的中等规模语言模型设计的库和框架。它的设计理念是注重GPU速度和可修改性。作为收敛性验证,已经有在1.25T标记上训练的模型可供使用。这种新型的框架和库能够更好地满足中等规...

Read More
2023-09-27 talkingdev

《毁灭战士》开发者 John Carmack 认为人工通用智能可在2030年实现

John Carmack 称,现阶段的人工智能之所以可能存在,可能要归功于他在《雷神之锤》上的工作,这款游戏引发了对 GPU 的需求。他认为,随着硬件和软件的发展,人工通用智能有望在2030年左右实现。他表示,目前的人工智...

Read More
2023-09-14 talkingdev

ExLlamaV2:在消费级GPU上运行本地LLMs的推理库

ExLlamaV2是一个在GitHub上开源的项目,它是为现代消费级图像处理单元(GPU)上运行本地语言模型(LLMs)而设计的推理库。这款推理库的出现,可以帮助用户在个人电脑上使用现代GPU进行深度学习模型的推理计算,而无...

Read More
  1. Prev Page
  2. 11
  3. 12
  4. 13
  5. Next Page