漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-09-20 talkingdev

论文:通过强化学习训练语言模型实现自我纠错

近期研究表明,通过强化学习可以有效地训练语言模型,使其具备自我纠错的能力。这一方法不仅提升了模型的准确性,还增强了其处理复杂任务的灵活性。强化学习的应用使得语言模型在面对错误时能够自我识别并进行调整,...

Read More
2024-07-02 talkingdev

RAM遵循长度约束指令:模型调优新方法

在众多的模型中,大多数都不能遵循长度要求,例如少于40个词。然而,最近的研究显示,我们可以通过调优使它们达到这样的要求。这项工作的关键在于调整模型的参数,使其能够根据要求生成特定长度的输出。这一发现可能...

Read More
2024-05-22 talkingdev

DeepSeek-VL:面向现实世界的开源视觉语言模型

DeepSeek-VL 是一个专注于现实世界应用的全新开源视觉语言模型。该模型特别针对多样化的数据进行了优化,包括来自网页截图、图表以及 OCR(光学字符识别)数据的处理。DeepSeek-VL 的设计目标是提高在复杂和多样化数...

Read More
2024-05-14 talkingdev

Model Explorer:模型图形的直观分层可视化

深度学习模型的复杂性使得理解它们变得困难。为了解决这个问题,研究人员提出了一个名为“Model Explorer”的工具,它提供了直观、分层的可视化模型图形。这个工具可以帮助用户更好地理解深度学习模型,而无需阅读大量...

Read More
2024-04-28 talkingdev

微软开源BitBLAS:优化1.58位网络内核

微软近日发布了一组用于训练BitNet风格模型的GPU加速内核。这些模型在准确度上没有明显下降的情况下,大大降低了内存消耗。BitNet风格模型是一种新型的深度学习模型,它的特点是使用1.58位的数据表示方法,比传统的3...

Read More
2024-04-04 talkingdev

论文:新型DiJiang技术助力Transformer模型高效瘦身

科研团队近期推出了一项名为DiJiang的创新技术,旨在将现有的Transformer模型转化为更精简、更快速的版本,同时避免了重新训练模型所需的巨大成本。DiJiang技术通过优化模型结构,大幅减少了计算资源的消耗,使得Tra...

Read More
2024-03-22 talkingdev

Meta推出Torchtune库,助力PyTorch语言模型微调

Meta公司近日发布了一个名为Torchtune的原生PyTorch库,专门用于精细调整语言模型。该库旨在为开发者提供更为便捷的工具,以便在PyTorch框架中进行语言模型的微调工作。通过Torchtune,开发者可以更容易地实现模型性...

Read More
2024-02-08 talkingdev

移动端本地微型语言模型大有可为

近日,一项研究探讨了如何通过采用参数更少的微型语言模型,使得强大的语言模型更适合移动设备。研究人员发现,相较于传统的大型语言模型,微型语言模型在保证语言表达能力的前提下,可以极大地减少模型参数,从而显...

Read More
2023-10-04 talkingdev

视觉-语言模型DA-CLIP带来更优秀的图像修复效果

视觉-语言模型如CLIP在许多任务中表现出色,但在图像修复方面却面临一些挑战。因此,一项新的项目引入了DA-CLIP模型,该模型优化了CLIP的工作方式,使其更好地处理这些任务,从而带来更清晰的图像重建。DA-CLIP模型...

Read More
2023-09-28 talkingdev

QA-LoRA的智能构建和微调方法,让LLM更快更小

大型语言模型在许多设备上的运行效率受限于其庞大的计算需求。然而,一个名为QA-LoRA的新方法已经成功改变了这一局面。QA-LoRA通过巧妙地改变模型的构建和微调方式,使得大型语言模型能够在维持强大功能的同时,有效...

Read More
  1. Next Page