漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-11-21 talkingdev

Neural-Cherche:神经搜索模型微调库开源

Neural-Cherche是一个库,旨在为特定数据集微调神经搜索模型,例如Splade,ColBERT和SparseEmbed。 在搜索模型中进行微调可以提高搜索结果的质量,从而更好地满足用户需求。 该库现已开源,可在GitHub上获取。此外,...

Read More
2023-11-03 talkingdev

MoE PEFT代码发布:Cohere AI的参数高效微调模型

Cohere AI的研究部门For AI开发了用于混合专家模型的参数高效微调方法,称为MoE PEFT。该算法可显著提高模型的微调效率,同时保持准确性。最近,该团队公开了该算法的GitHub代码库,为社区提供更多研究资源和工具。C...

Read More
2023-07-08 talkingdev

DragonDiffusion:一种采用特征对应提高文本到图像编辑精度的新方法

DragonDiffusion是一种全新的方法,旨在提高文本到图像模型的编辑精度。通过在扩散模型中利用特征对应,DragonDiffusion可以进行各种详细的图像修改,如移动和调整对象的大小,替换外观,以及拖动内容,同时保持图像...

Read More
2023-06-27 talkingdev

LLM Library (GitHub Repo):打造大型机器学习模型优化的可扩展工具箱

LLM Library是一款可扩展、便捷、高效的大型机器学习模型微调工具箱,旨在为整个社区提供用户友好、高速可靠、易于访问的解决方案。

Read More
2023-06-16 talkingdev

新技术:改进型LoRA可快速微调大型模型

近日,研究人员推出了一种改进型的Low Rank Adaptation(LoRA)技术,可帮助研究和实践社区更有效地微调大型模型。以下是本次发布的主要内容: - LoRA被广泛应用于研究和实践社区,作为一种参数高效的微调大型模型...

Read More
2023-05-25 talkingdev

QLoRA 65B参数模型在48GB GPU上进行微调

在技术领域中,微调是一种比完全微调更便宜的模型微调方式。它通过仅更新模型的一个小而精心选择的子集来工作。然而,即使如此,在普通硬件上微调大型(超过13B参数)模型的成本仍然太高。量化减少了模型中参数的精...

Read More
  1. Prev Page