漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-11 talkingdev

谷歌Gemini Pro 1.5在Vertex AI平台上开启公开预览

谷歌在其Vertex AI平台上公开预览了最新一代生成型AI模型Gemini 1.5 Pro。该模型提供了高达100万个标记的大容量上下文窗口,这使得它能够处理更复杂的文本生成任务,同时保持高效的计算性能。此举进一步展示了谷歌在...

Read More
2024-04-11 talkingdev

Meta发布新一代AI加速芯片,专注芯片内存与吞吐量提升

Meta公司近日宣布了其人工智能加速器芯片的下一代产品。该芯片的研发重点集中在芯片内存和吞吐量上,采用了128GB的5nm内存和11 TFLOPs的int8吞吐量。这一进步意味着Meta在AI硬件领域的竞争力得到了显著增强。新一代A...

Read More
2024-04-11 talkingdev

英伟达推出特殊奖励,员工股票奖励增加25%

英伟达近日宣布,公司将为员工提供一项名为“Jensen特别奖励”的福利,该奖励计划将使员工的股票奖励总额增加25%。此举旨在激励员工,提高团队的凝聚力和工作效率。该奖励计划将在四年内逐步兑现,首批奖励将于今年九...

Read More
2024-04-10 talkingdev

使用Colab在H100上训练超过20万上下文窗口的新梯度累积卸载技术

Longcontext Alpaca训练技术最近取得了重大突破,通过在H100硬件上使用新的梯度累积卸载技术,成功训练了超过200,000个上下文窗口。这种创新方法使得大规模深度学习模型的训练变得更加高效,显著提高了计算资源的利...

Read More
2024-04-10 talkingdev

英特尔发布Gaudi 3 AI处理器,性能超越英伟达H100

英特尔公司近日宣布推出新一代Gaudi 3 AI处理器,该处理器在性能上实现了重大突破。据官方数据显示,Gaudi 3在训练性能上提升高达1.7倍,推理性能提升50%,同时在效率上也比英伟达的H100处理器高出40%,而成本却更低...

Read More
2024-04-10 talkingdev

SqueezeAttention技术助力LLM优化,内存使用降低30%至70%

近日,开发者社区GitHub上出现了一项名为SqueezeAttention的新技术,该技术针对大型语言模型(LLMs)的键值缓存进行了优化。通过SqueezeAttention,内存使用量能够显著降低30%至70%,同时吞吐量也得到了翻倍提升。这...

Read More
2024-04-10 talkingdev

论文:OA-DG方法助力单域目标检测性能提升

在目标检测领域,单域泛化(S-DG)一直是一个挑战。为了解决这一问题,最新的OA-DG方法应运而生。该方法采用了OA-Mix数据增强技术以及OA-Loss训练策略,旨在提高模型在单域环境下的泛化能力。OA-Mix通过混合不同类别...

Read More
2024-04-10 talkingdev

人工智能数据竞赛的四个关键看点

人工智能的发展,尤其是像GPT-3这样的大型语言模型,严重依赖于大量数据。随着高质量在线数据可能在2026年耗尽,科技公司如Meta和Google正竞相收集更多数据。这些科技巨头采用有争议的方法来推动他们的AI进步,包括...

Read More
  1. Prev Page
  2. 46
  3. 47
  4. 48
  5. Next Page