漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-01 talkingdev

OpenAI CEO Sam Altman表示GPT-5“还好”

OpenAI CEO Sam Altman在AI技术潜力和局限性方面发表了矛盾的言论,包括大肆宣传像GPT-5这样的技术进步,同时又在管理公众情绪方面保持克制,这反映了在激发热情和管理公众情绪之间的战略平衡,但也引发了关于AI技术...

Read More
2024-02-01 talkingdev

MAG-亿级推荐系统图神经网络实现开源

该项目介绍了MAcro Recommendation Graph(MAG)和Macro Graph Neural Networks(MacGNN),这些方法通过将相似的行为模式分组为宏节点来解决图神经网络的计算复杂性,从而显着减少了节点数。MAG和MacGNN能够有效地...

Read More
2024-02-01 talkingdev

Pytorch实验性浮点8训练

使用较低精度的模型训练速度更快、更便宜,但不稳定。最近有很多关于量化训练的研究。这个代码库建立在这些基础上,提供易于阅读和可修改的代码,实现浮点8训练。

Read More
2024-02-01 talkingdev

DeFlow-自动驾驶中的场景流预测

DeFlow是一种用于估计场景中三维运动的新方法,这是自动驾驶所必需的关键技能。它通过从基于体素的方法向基于点特征的方法过渡,并使用门控循环单元细化和引入新的损失函数,克服了传统体素化方法的局限性。

Read More
2024-02-01 talkingdev

Lilac Garden快速聚类技术:将语言模型训练效率提高100倍

在训练语言模型时,一个挑战是为任务找到足够多样化的数据集。更难的是,将这些数据可视化。这个很酷的工具使用快速聚类和主题建模,使得可以探索数据,以改善过滤和整体质量。

Read More
2024-02-01 talkingdev

持续学习:一份调查报告

持续学习是一种机器学习技术,它可以在不断适应新数据的同时保留以前的知识。近年来,随着机器学习技术的不断发展,持续学习技术也得到了越来越多的关注。本文对持续学习的最新进展进行了详细的调查,包括其定义、挑...

Read More
2024-02-01 talkingdev

论文:苹果应用“Up captioning”技术,加快预训练收敛速度

苹果公司在人工智能系统中应用“Up captioning”技术来提高训练时的标签质量。该公司将此技术应用于预训练中,通过将C4重述为问题/答案对、指令等,加快了模型的收敛速度10倍,使模型的样本效率显著提高。但这也会增加...

Read More
2024-02-01 talkingdev

苹果继续推进AI驱动的Siri和Messages功能

苹果正在为iOS 18准备重大的人工智能功能。它正在使用OpenAI的ChatGPT API进行内部测试,以开发自己的AI模型。iOS 17.4的第一个测试版揭示了一个新的SiriSummarization框架,它将AI集成到Messages应用程序中,实现了...

Read More
  1. Prev Page
  2. 302
  3. 303
  4. 304
  5. Next Page