漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-20 talkingdev

LlamaGym:在线强化学习优化大模型Agent

近日,GitHub上出现了一个新的项目LlamaGym,该项目专注于通过在线强化学习方法对大型语言模型(LLM)代理进行微调。大型语言模型在近年来取得了显著的进展,但如何进一步提升其性能,尤其是在特定任务上的表现,成...

Read More
2024-03-04 talkingdev

Genie世界模型:可生成交互式环境

Google DeepMind的Genie是一个基础的世界模型,通过在互联网视频上进行训练,可以从合成图像、照片甚至草图中生成各种可玩(动作可控)的环境。该模型使用了深度强化学习和生成式建模技术,可以为游戏开发、虚拟现实...

Read More
2024-03-01 talkingdev

GDPO药物设计:基于图扩散策略优化的药物设计

基于图扩散策略优化的药物设计增强了使用独特的强化学习技术的图生成模型,该方法承诺在创建复杂和多样化的图结构方面具有更好的性能,并可能在该领域树立新的标准。

Read More
2024-03-01 talkingdev

Distilabel-框架用于对齐数据收集

Distilabel是为AI工程师设计的框架,使用人类反馈的强化学习方法(例如奖励模型和DPO)对大型语言模型进行对齐。 它主要专注于LLM微调和适应性。 Distilabel可协助数据收集,清洗和训练。

Read More
2024-02-29 talkingdev

UCSD-训练更具表现力的人形机器人

来自加州大学圣地亚哥分校(UCSD)的研究人员训练了人形机器人的动作,使其更具表现力、社交倾向和鲁棒性。他们在草地上的非编排舞蹈视频非常令人印象深刻。该研究团队使用了深度强化学习,让机器人能够快速学习和适应...

Read More
2024-02-27 talkingdev

Meta开源生产环境强化学习

Meta最近发布了一款名为Pearls的强化学习库,该库已经在拍卖竞标系统、推荐引擎等应用中进行了部署,可以用于研究和部署。Pearls提供了一些在强化学习领域中非常实用的工具,例如,一些用于环境模拟和数据前处理的工...

Read More
2024-02-27 talkingdev

论文:简单的强化学习算法战胜PPO

REINFORCE是一种简单、标准且易于理解的强化学习方法。然而,在模拟器中使用它很难稳定地进行训练。PPO在一般情况下更为高效和稳定。Gemini使用REINFORCE算法,而据信GPT-4使用PPO算法。

Read More
2024-02-23 talkingdev

结合无监督训练和监督微调的效果存在挑战

近日,一项新的研究挑战了结合监督微调和强化学习的训练方法的有效性。研究表明,在初始训练中使用更先进的模型(如GPT-4)可以优于更复杂的两步方法。这一研究的开源代码已经发布到GitHub上,供科研人员使用和参考...

Read More
  1. Prev Page
  2. 3
  3. 4
  4. 5
  5. Next Page