漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-01-04 talkingdev

Pykoi开源:采用RLHF提高LLMs性能

Pykoi是一个开源的Python库,旨在通过RLHF(Reinforcement Learning with Hamiltonian Flows)提高LLMs(Latent Linear Models)的性能。Pykoi是一个基于TensorFlow 2的库,提供了一系列的LLMs和RLHF的实现,可以直...

Read More
2024-01-03 talkingdev

2024年伊始:漫话LLMs和编程

在2023年,大型语言模型(LLMs)已经成为程序员的无价之宝,显著加快了代码编写速度并帮助理解复杂的API或框架。虽然在复杂的系统编程方面存在局限性,但LLMs在Python高级编程和单调任务方面表现出色,是提高生产力和...

Read More
2024-01-03 talkingdev

2023年AI探索总结:如何在个人设备上运行LLMs

本文旨在总结2023年人工智能发展的亮点。它涵盖了如何在个人设备上运行LLMs、微调模型、易受骗问题、LLM应用等方面。LLMs可以为有效使用它们的人提供显著的生活品质提升。它们实际上相当容易构建,但仍有许多未知数...

Read More
2024-01-02 talkingdev

2023年人工智能发展亮点盘点

本文总结了2023年人工智能发展的亮点,包括如何在个人设备上运行LLM,微调模型,易受欺骗的问题,LLM应用等等。LLM可以为有效使用它们的人提供显著的生活质量提升。它们实际上相当容易构建,但仍有很多未知数,对于...

Read More
2024-01-02 talkingdev

开源LLM课程以及RoadMap

这门关于大型语言模型的课程涵盖了数学、Python和神经网络的基本知识。它的重点是教授学生如何使用最新技术构建和部署最佳的LLMs。该存储库包含与LLMs相关的笔记本和文章列表以及进一步学习的资源。

Read More
2024-01-01 talkingdev

论文:PowerInfer消费级GPU的LLMs

本文探讨了模型中存在几乎所有输入都会使用的热神经元和很少使用的冷神经元的想法。通过将热神经元预加载到GPU中,您可以节省内存而不会牺牲太多吞吐量。可以使用配套的代码库。

Read More
2023-12-25 talkingdev

论文:消费级GPU上的LLMs PowerInfer

本文探讨了模型拥有热神经元和很少使用的冷神经元的想法。通过将热神经元预加载到GPU上,您可以节省内存而不会牺牲太多吞吐量。同时,该文提供了一个可用的代码库。

Read More
2023-12-25 talkingdev

苹果开发突破性方法,使LLMs可以在iPhone上运行

苹果研究人员使用创新的闪存利用技术,在苹果设备上部署大型语言模型取得了关键突破。该方法采用窗口化和行列捆绑技术,以最小化数据传输并最大化闪存吞吐量。它可以使AI模型在标准处理器上运行速度提高高达5倍,在...

Read More
  1. Prev Page
  2. 9
  3. 10
  4. 11
  5. Next Page