漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-15 talkingdev

OpenAI的重大突破:GPT-4o的多模态能力

OpenAI的最新研究成果GPT-4o的多模态能力,整合了视觉和语音技术,预示着人工智能与世界互动方式的重大进步。这为人工智能在日常生活中的普遍存在铺平了道路。GPT-4o的多模态能力,不仅能够理解文本信息,还能够理解...

Read More
2024-05-15 talkingdev

Google I/O 2024新品发布:Gemini Flash、Veo视频生成、Imagen 3及最新助手Project Astra亮相

在2024年的Google I/O开发者大会上,Google发布了众多新功能,包括Gemini Flash、Veo视频生成、Imagen 3及其最新助手Project Astra。整体而言,这些改进数量惊人,包括扩大到2m的令牌上下文长度,大幅降低的模型价格...

Read More
2024-05-14 talkingdev

Pipecat:构建语音及多模态对话Agent框架

Pipecat是一个构建语音和多模式对话代理的框架。这个框架使开发者能够更便捷地创建和管理语音交互系统。多模式对话代理则是指可以处理多种类型输入(如文字、语音、图像等)的人工智能系统。Pipecat不仅适用于创建语...

Read More
2024-05-14 talkingdev

Text-Image组合与理解:InternLM-XComposer2视觉语言模型的突破

InternLM-XComposer2是一种在创建和理解复杂的文本-图像内容方面表现优异的视觉语言模型。该模型引入了一种名为Partial LoRA的新型方法,用以平衡视觉和文本的理解,其性能超越了现有的多模态内容创建和理解模型。通...

Read More
2024-05-10 talkingdev

Image In Words数据集,图像与文字配对的新型标签方法

近日,一种新型的标签方法被研究者利用在了图片和文字的配对上,这种方法运用了两次的VLMs(视觉语言模型)扫描,产生了极为详细的图片和文字配对数据。这些配对数据的标题比以往的任何数据集都要详细,能够帮助训练...

Read More
2024-05-07 talkingdev

Vibe-Eval开源:评估多模态聊天模型基准测试

Vibe-Eval是一个新推出的基准测试,专为测试多模态聊天模型而设计。它包含了269项视觉理解提示,其中包括100项特别具有挑战性的提示。这些视觉理解提示的设计,力求能够全面、深入地评估和测试多模态聊天模型的性能...

Read More
2024-04-28 talkingdev

Llama3与SigLIP打造的多模态模型Bunny发布

多模态模型Bunny系列是一套强大的开放模型,尤其在MMMU基准测试中,其性能表现优秀。这是该团队基于Llama3 8B发布的首款开放模型。这个系列的模型采用了SigLIP与Llama3的技术,充分展示了其强大的性能和应用广泛性。...

Read More
2024-04-16 talkingdev

Any2Point:多模态跨领域3D理解新突破

Any2Point是GitHub上公开的一种新型方法,它能够高效地将视觉、语言和音频模型的能力转换到3D领域,同时保留空间几何信息。这一技术突破意味着开发者和研究人员能够利用现成的2D模型,通过Any2Point转换技术,快速拓...

Read More
  1. Prev Page
  2. 3
  3. 4
  4. 5
  5. Next Page