漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-05-25 talkingdev

QLoRA 65B参数模型在48GB GPU上进行微调

在技术领域中,微调是一种比完全微调更便宜的模型微调方式。它通过仅更新模型的一个小而精心选择的子集来工作。然而,即使如此,在普通硬件上微调大型(超过13B参数)模型的成本仍然太高。量化减少了模型中参数的精...

Read More
2023-05-04 talkingdev

Chrome 113发布:开发者必看的新功能

Chrome 113推出了WebGPU,允许在Web上进行高性能的3D图形和数据并行计算。以下是Chrome 113的三个核心更新: - WebGPU的推出,可实现Web上的高性能3D图形和数据并行计算。 - Devtools现在可以覆盖网络响应头,方便...

Read More
2023-05-03 talkingdev

Mojo——一种面向AI开发人员的新编程语言

新闻内容: Mojo是一种新的编程语言,专门为AI开发人员设计。以下是该语言的三个核心要点: - Mojo具有高度的灵活性和可扩展性,可以轻松应对不同类型和规模的项目。 - Mojo的语法简单明了,易于学习和使用。该语...

Read More
2023-05-01 talkingdev

Wonnx推出全新GPU加速ONNX推理运行时,100%采用Rust编写,支持Web应用

以下是该新闻的核心内容: - Wonnx是一个全新的GPU加速ONNX推理运行时,它完全采用Rust编写,可用于Web应用程序。 - 比起其他推理运行时,Wonnx具有更高的性能和更低的延迟。 - Wonnx是一个开源项目,现在可以在Git...

Read More
2023-04-28 talkingdev

学习WebGPU (网站) - 创建本地3D应用程序

本指南将带领读者从零开始学习如何使用WebGPU图形API在Windows、Linux和macOS中创建本地的C++ 3D应用程序。WebGPU图形API允许Web开发人员编写与GPU对话的代码。本指南涵盖了基本的渲染和计算以及更高级的技术。 本...

Read More
2023-04-21 talkingdev

科技新闻:RedPajama发布首款模型

- Mosaic使用440个GPU训练了一个10亿参数的模型,训练了2000亿个令牌 - 这个模型展示了Mosaic强大的模型训练技术,称为RedPajama - 该模型使用了AliBi技术,理论上可以扩展到超过2000个上下文 以上是关于Mosaic发布...

Read More
2023-04-20 talkingdev

技术新闻:Transformer数学问题

本文介绍了Transformer模型训练中需要用到的数学知识,其中包括以下三个核心点: - 计算需要多少个GPU进行训练; - 计算模型的宽度应该是多少; - 不管模型大小,都需要至少训练200B个标记。 除此之外,还有其他有...

Read More
  1. Prev Page
  2. 13
  3. 14
  4. 15
  5. Next Page