近日,开源社区推出了一款名为LibreCUDA的软件,可以在Nvidia GPU上启动CUDA代码,而无需专有运行时。这个软件是一个开源项目,由来自西班牙和台湾的开发者共同创建,并受到了Nvidia公司的支持。LibreCUDA的目标是为...
Read MoreNVIDIA的CUDA是一种广泛使用的GPU编程框架,但是它只能在NVIDIA GPU上运行。然而,一家名为Nek5000的研究团队近日发现了一种方法,在AMD GPU上运行未经修改的CUDA代码。他们使用了名为“ROCm”,即Radeon开放计算平台...
Read MoreSpectral Compute公司近日推出了SCALE——一个通用并行图形处理单元(GPGPU)编程工具包。SCALE的主要创新之处在于它能够使得使用CUDA语言编写的程序原生编译运行在AMD的GPUs上。这个工具包接受现有的CUDA程序代码,作...
Read MoreHazy研究团队最新推出一款名为ThunderKittens的CUDA DSL,旨在帮助开发者更简单、更高效地编写CUDA内核。据了解,该团队已经用这款新工具编写了flash attention模块,结果表明其运行速度比原版本快了30%,而且仅需10...
Read MoreQUICK是一套新的优化CUDA内核,通过解决内存问题,提升了大型语言模型的效率。这导致了NVIDIA GPU上的显著速度提升,使AI模型运行更快,效率更高。QUICK的出现,无疑为AI领域带来了新的可能性,通过优化内存处理方式...
Read MoreNvidia最近发布了一个新的工具包,可以对CUDA状态进行检查点设置,以便于传输和重启。这一工具包在GitHub上公开,对于大型AI模型的分布式训练非常有用。CUDA状态的检查点设置可以在训练过程中保存模型的状态,以便在...
Read More近期,Andrei Karpathy推出了一个名为llm.c的项目,该项目展示了如何使用C和CUDA编程语言来训练大型语言模型(LLM)。这一创新方法避免了对PyTorch等大型深度学习框架的依赖,尤其是其所需的250MB以上的资源。这种训...
Read More由英特尔、谷歌、ARM、高通、三星等科技公司组成的统一加速(UXL)基金会,正在开发开源软件,旨在避免AI开发者受限于英伟达的专有技术。这一举措意味着,未来AI开发将有更多的选择,不必完全依赖英伟达的生态系统。...
Read More