漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-07 talkingdev

Unsloth.ai:轻松微调和训练LLMs的新方式

Unsloth.ai的创始人近期发布了一段视频,详述了他们的团队如何使用PyTorch,编写他们的内核,以及设计他们的API界面。Unsloth的框架和库功能强大,易于使用。Unsloth通过这种方式,使得大量的开发者能够更好地进行深...

Read More
2024-04-29 talkingdev

Luminal:以速度和简单性为核心的深度学习框架

Luminal 是一款基于深度学习的开源框架,它在GitHub上发布并得到了广泛的关注。这个框架以速度和简单性为出发点,把快速和简易性放在首位,让用户可以在最短的时间内实现深度学习模型的快速构建和部署。Luminal能够...

Read More
2024-04-28 talkingdev

微软开源BitBLAS:优化1.58位网络内核

微软近日发布了一组用于训练BitNet风格模型的GPU加速内核。这些模型在准确度上没有明显下降的情况下,大大降低了内存消耗。BitNet风格模型是一种新型的深度学习模型,它的特点是使用1.58位的数据表示方法,比传统的3...

Read More
2024-04-23 talkingdev

苹果发布CoreNet,用于训练深度神经网络库

苹果公司最近发布了一个名为CoreNet的库,用于训练深度神经网络。这个库旨在帮助开发者更快速、更方便地构建和训练深度学习模型,提高模型的准确性和性能。CoreNet提供了一系列的工具和接口,包括卷积神经网络、递归...

Read More
2024-04-10 talkingdev

使用Colab在H100上训练超过20万上下文窗口的新梯度累积卸载技术

Longcontext Alpaca训练技术最近取得了重大突破,通过在H100硬件上使用新的梯度累积卸载技术,成功训练了超过200,000个上下文窗口。这种创新方法使得大规模深度学习模型的训练变得更加高效,显著提高了计算资源的利...

Read More
2024-04-02 talkingdev

英伟达TensorRT更新,性能提升达28倍,Llama 2基准测试每秒处理1200个令牌

英伟达在其GitHub仓库Optimum-Nvidia中发布了TensorRT的最新更新,这一更新使得AI推理速度大幅提高,达到了比基线快28倍的速度。特别是在Llama 2的基准测试中,能够达到每秒处理1200个令牌的惊人速度。这一进步得益...

Read More
2024-03-28 talkingdev

英伟达GPU在MLPerf推理测试中夺魁

近日,英伟达的GPU在MLPerf推理测试中取得了优异的成绩,尤其是H200型号。MLPerf推理测试是业界公认的深度学习性能评估基准,对AI系统的推理能力进行全方位评测。在此次测试中,英伟达的GPU展现了其在处理复杂机器学...

Read More
2024-03-27 talkingdev

论文:SegRefiner模型无关解决方案提升对象分割精度

SegRefiner作为一种创新的模型无关解决方案,通过将细化过程视为数据生成过程,显著提升了各种分割任务中的对象掩膜质量。该技术通过离散扩散过程逐像素细化粗糙掩膜,从而提高分割和边界指标的精确度。这一方法的核...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page