漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-07-02 talkingdev

RAM遵循长度约束指令:模型调优新方法

在众多的模型中,大多数都不能遵循长度要求,例如少于40个词。然而,最近的研究显示,我们可以通过调优使它们达到这样的要求。这项工作的关键在于调整模型的参数,使其能够根据要求生成特定长度的输出。这一发现可能...

Read More
2024-05-22 talkingdev

DeepSeek-VL:面向现实世界的开源视觉语言模型

DeepSeek-VL 是一个专注于现实世界应用的全新开源视觉语言模型。该模型特别针对多样化的数据进行了优化,包括来自网页截图、图表以及 OCR(光学字符识别)数据的处理。DeepSeek-VL 的设计目标是提高在复杂和多样化数...

Read More
2024-05-14 talkingdev

Model Explorer:模型图形的直观分层可视化

深度学习模型的复杂性使得理解它们变得困难。为了解决这个问题,研究人员提出了一个名为“Model Explorer”的工具,它提供了直观、分层的可视化模型图形。这个工具可以帮助用户更好地理解深度学习模型,而无需阅读大量...

Read More
2024-04-28 talkingdev

微软开源BitBLAS:优化1.58位网络内核

微软近日发布了一组用于训练BitNet风格模型的GPU加速内核。这些模型在准确度上没有明显下降的情况下,大大降低了内存消耗。BitNet风格模型是一种新型的深度学习模型,它的特点是使用1.58位的数据表示方法,比传统的3...

Read More
2024-04-04 talkingdev

论文:新型DiJiang技术助力Transformer模型高效瘦身

科研团队近期推出了一项名为DiJiang的创新技术,旨在将现有的Transformer模型转化为更精简、更快速的版本,同时避免了重新训练模型所需的巨大成本。DiJiang技术通过优化模型结构,大幅减少了计算资源的消耗,使得Tra...

Read More
2024-03-22 talkingdev

Meta推出Torchtune库,助力PyTorch语言模型微调

Meta公司近日发布了一个名为Torchtune的原生PyTorch库,专门用于精细调整语言模型。该库旨在为开发者提供更为便捷的工具,以便在PyTorch框架中进行语言模型的微调工作。通过Torchtune,开发者可以更容易地实现模型性...

Read More
2024-02-08 talkingdev

移动端本地微型语言模型大有可为

近日,一项研究探讨了如何通过采用参数更少的微型语言模型,使得强大的语言模型更适合移动设备。研究人员发现,相较于传统的大型语言模型,微型语言模型在保证语言表达能力的前提下,可以极大地减少模型参数,从而显...

Read More
2023-10-04 talkingdev

视觉-语言模型DA-CLIP带来更优秀的图像修复效果

视觉-语言模型如CLIP在许多任务中表现出色,但在图像修复方面却面临一些挑战。因此,一项新的项目引入了DA-CLIP模型,该模型优化了CLIP的工作方式,使其更好地处理这些任务,从而带来更清晰的图像重建。DA-CLIP模型...

Read More
  1. Next Page