漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-09 talkingdev

用C/CUDA语言训练大型语言模型,无需依赖PyTorch

近期,Andrei Karpathy推出了一个名为llm.c的项目,该项目展示了如何使用C和CUDA编程语言来训练大型语言模型(LLM)。这一创新方法避免了对PyTorch等大型深度学习框架的依赖,尤其是其所需的250MB以上的资源。这种训...

Read More
2024-04-09 talkingdev

企业如何有效融合大型语言模型提升产品价值

大型语言模型(LLMs)在提升公司内部效率方面的作用不容小觑,但其如何使产品对客户更具价值则是一大挑战。本文深入探讨了如何将大型语言模型有意义地整合到现有产品中,包括对这一技术的思考、工作流程的改造、模型...

Read More
2024-04-08 talkingdev

ReFT:一种高效节省参数的微调语言模型方法

近期在GitHub上发布的ReFT(Representation Fine-Tuning)项目,为微调语言模型带来了一种新的参数高效方法。与传统的PeFT相比,ReFT在保持强大性能的同时,大大降低了成本。该方法通过精细化调整模型参数,使得在进...

Read More
2024-04-08 talkingdev

Meta开源新模型训练优化器代码,无需LR调度

Meta的研究团队近日推出了一款新型的优化器,并已在X平台上公开代码及其多种集成方式。这款优化器的独特之处在于它不依赖于学习率(LR)调度,训练过程中无需预先设定总步数。经过实证,该优化器在包括语言模型在内...

Read More
2024-04-08 talkingdev

论文:ReaLMistake基准测试,系统识别大型语言模型错误

研究人员近日推出了ReaLMistake基准测试工具,该工具专注于系统性地检测大型语言模型(LLM)响应中的错误。随着人工智能技术的发展,大型预训练语言模型在多种应用场景中展现出了卓越的性能。然而,这些模型在生成文...

Read More
2024-04-08 talkingdev

pgmock:一款完全在WebAssembly中运行的内存虚拟PostgreSQL服务器

近日,一款名为pgmock的新技术引起了开发者社区的广泛关注。pgmock是一个内存中的虚拟PostgreSQL服务器,专为单元和端到端测试设计。该技术的特点在于它完全在WebAssembly中运行,不需要任何外部依赖即可在Node.js和...

Read More
2024-04-07 talkingdev

Chisel: 快速的TCP/UDP隧道传输技术

Chisel是一种快速的TCP/UDP隧道传输技术,通过HTTP协议在客户端和服务器之间进行数据传输,可以有效地加密和保护数据传输过程中的隐私和安全。Chisel使用起来非常简单,只需要在客户端和服务器上分别安装Chisel程序...

Read More
2024-04-05 talkingdev

特斯拉提高AI工程师薪酬以抵御人才挖角

特斯拉首席执行官埃隆·马斯克近日宣布,为了应对来自OpenAI等竞争对手的人才挖角,公司将提高AI工程师的薪酬。此举反映出科技企业之间对AI人才的激烈争夺。AI技术是现代科技发展的关键领域,对于推动公司创新和业务...

Read More
  1. Prev Page
  2. 27
  3. 28
  4. 29
  5. Next Page