漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-20 talkingdev

PaliGemma:谷歌最新实时运行的推理VLM模型

现在,您可以使用GPT-Fast实时运行最新的Google VLM。这为我们打开了一扇强大的大门,因为该模型非常容易为特定任务进行微调。这意味着,我们可以轻松地将其应用到各种下游任务中。PaliGemma的实时运行不仅能够提高...

Read More
2024-05-20 talkingdev

让LoRA学习更少遗忘更少,优化模型微调调优的新方法

LoRA(Learning of Rate Adjustor)是一种被广泛应用于模型微调的方法,用于注入风格或知识。近期的一篇研究论文深入探讨了在使用LoRA时,学习能力和遗忘之间的权衡关系。研究发现,LoRA相比于全面微调,虽然学习的...

Read More
2024-05-13 talkingdev

Cohere发布Command R微调功能,性能领先业界

Cohere公司近日推出了其Command R的微调功能,该功能以极低的成本提供了业界领先的性能。在对企业最重要的关键性能指标上,具有微调功能的Command R始终优于更大的模型。该微调功能现已在Cohere的平台和亚马逊Sagema...

Read More
2024-05-07 talkingdev

Unsloth.ai:轻松微调和训练LLMs的新方式

Unsloth.ai的创始人近期发布了一段视频,详述了他们的团队如何使用PyTorch,编写他们的内核,以及设计他们的API界面。Unsloth的框架和库功能强大,易于使用。Unsloth通过这种方式,使得大量的开发者能够更好地进行深...

Read More
2024-04-28 talkingdev

使用Unsloth微调Llama3:显著减少内存使用且长上下文增6倍

Llama3是一种革命性的新技术,它通过使用Unsloth进行微调,可以在保持相同的计算效率的同时,显著降低VRAM的使用量。最近的研究表明,使用Unsloth微调Llama3可以使上下文长度增长六倍,这比HF的flash attention技术...

Read More
2024-04-08 talkingdev

ReFT:一种高效节省参数的微调语言模型方法

近期在GitHub上发布的ReFT(Representation Fine-Tuning)项目,为微调语言模型带来了一种新的参数高效方法。与传统的PeFT相比,ReFT在保持强大性能的同时,大大降低了成本。该方法通过精细化调整模型参数,使得在进...

Read More
2024-04-05 talkingdev

OpenAI推出定制化模型训练服务 助力企业打造专属生成式AI模型

OpenAI最近宣布扩大其定制模型计划,通过辅助微调和定制训练模型,帮助企业客户开发适合特定使用场景的生成式AI模型。这一服务的推出,意味着企业可以根据自己的特定需求,获得更加个性化和高效的AI解决方案。生成式...

Read More
2024-04-03 talkingdev

创新公司颠覆AI模型开发高成本观念

YC支持的25家创业公司通过培训或微调自有的基础模型,打破了构建AI模型需要巨额资源的传统观念。这些公司在短时间内取得了显著成就,如创造专业音乐和设计新型蛋白质。这些公司利用YC的资金和技术支持,跨越不同领域...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page