DeepSeek近期推出了一个具有超过2000亿参数的模型DeepSeek-V2,其中激活参数达到210亿。无论是在编码还是推理方面,该模型的表现都极为出色。虽然目前尚不清楚其性能是否超过了拥有700亿参数的Llama 3模型,但无疑,...
Read MoreUnsloth.ai的创始人近期发布了一段视频,详述了他们的团队如何使用PyTorch,编写他们的内核,以及设计他们的API界面。Unsloth的框架和库功能强大,易于使用。Unsloth通过这种方式,使得大量的开发者能够更好地进行深...
Read More近日,一款名为Mistral.rs的LLM推理平台在GitHub上备受关注。它可以支持多种设备上的推理,支持量化,并且具有易于使用的应用程序,带有OpenAI API兼容的HTTP服务器和Python绑定。无论是在深度学习推理、设备兼容性...
Read More浮点精度的降低能够提高训练速度,但可能会导致不稳定的现象。最新的研究论文展示,通过新的装包格式FP6-LLM,可以在不引发常见不稳定性或由于尝试不当引发的训练速度下降的情况下,实现全张量核心的利用。这一突破...
Read More近日,与Hugging Face团队相关联的研究者们,训练并评估了一种名为JAT(Jack-of-All-Trades)的模型,这是一种全面任务模型,能在各种不同的任务上表现出相当的效果。此模型的出现,为深度学习领域的多任务学习提供...
Read MoreLuminal 是一款基于深度学习的开源框架,它在GitHub上发布并得到了广泛的关注。这个框架以速度和简单性为出发点,把快速和简易性放在首位,让用户可以在最短的时间内实现深度学习模型的快速构建和部署。Luminal能够...
Read More微软近日发布了一组用于训练BitNet风格模型的GPU加速内核。这些模型在准确度上没有明显下降的情况下,大大降低了内存消耗。BitNet风格模型是一种新型的深度学习模型,它的特点是使用1.58位的数据表示方法,比传统的3...
Read More苹果公司最近发布了一个名为CoreNet的库,用于训练深度神经网络。这个库旨在帮助开发者更快速、更方便地构建和训练深度学习模型,提高模型的准确性和性能。CoreNet提供了一系列的工具和接口,包括卷积神经网络、递归...
Read More