漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-07 talkingdev

初创公司在荒野训练LLM模型

Reka的创始人、著名GPU评论家Yi Tay在一篇博客文章中概述了他们在谷歌之外训练极强语言模型的经验。主要的挑战来自于集群和硬件的不稳定性,他们还发现软件的成熟度也是一个挑战。尽管如此,他们还是成功地训练出了...

Read More
2024-03-07 talkingdev

Meta巨型AI模型,以驱动其整个视频生态系统

Meta的技术路线图一直延伸到2026年,其中之一是开发一种AI推荐模型,以推动公司的Reels短视频服务和更传统的长视频。目前,该公司为其每个产品使用单独的模型。新的推荐系统将为用户提供更有吸引力和相关的内容。Met...

Read More
2024-03-04 talkingdev

Daft:云端大数据处理的分布式查询引擎

Daft是一种专门为云端大数据处理而设计的分布式查询引擎。它具有熟悉的交互式API、强大的查询优化器、数据目录集成、丰富的多模式类型系统等特点。Daft的设计目的是能够处理任何数据,它专为大型机器集群上的交互式...

Read More
2024-03-01 talkingdev

Modal推出Websockets

大多数无服务器GPU提供需要每个模型推论一个POST请求。但是,在您想要流模型输出的情况下,这是一个挑战。Websockets使流媒体成为可能。

Read More
2024-02-29 talkingdev

字节跳动开发 MegaScale 系统,可用于训练大型语言模型

据悉,字节跳动开发了一种名为 MegaScale 的系统,可用于训练大规模并行的大型语言模型。该系统成功地在 12,288 个 GPU 上训练了一个 175B 的语言模型,达到了 55.2% 的模型 FLOPs 利用率,相当惊人。此外,字节跳动...

Read More
2024-02-27 talkingdev

微软打造AI服务器硬件,削减对英伟达的依赖

据报道,微软正在打造自己的人工智能服务器硬件,以减少对英伟达的依赖。目前,微软在其云计算平台Azure上使用英伟达的GPU加速器来提高人工智能处理速度。不过,为了降低成本和提高灵活性,微软现在正在开发自己的AI...

Read More
2024-02-21 talkingdev

可租用的GPU集群列表

本文提供了一份可租用的GPU集群列表,这些集群可按小时租用,提供高性能计算能力,适用于需要大量计算的机器学习和深度学习任务。以下是可租用的GPU集群列表: 1. AWS EC2 P3(美国) 2. Google Cloud Platform(欧...

Read More
2024-02-20 talkingdev

Groq的响应速度是我见过的最快的

Groq可以每秒提供高达500个令牌。它能够做到这一点,是因为它使用了使用线性处理器单元(LPUs)而不是GPU的定制硬件。 LPUs旨在为AI计算提供确定性性能。它们提供了一种更简化的方法,消除了复杂的调度硬件的需要,...

Read More
  1. Prev Page
  2. 7
  3. 8
  4. 9
  5. Next Page