漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-11-23 talkingdev

OpenAI临时CEO威胁离职,要求董事会证明Sam Altman的错误行为

据报道,OpenAI临时CEO Emmett Shear正在威胁要离开OpenAI,如果董事会无法证明Sam Altman的错误行为。

Read More
2023-11-20 talkingdev

论文:改进视频问答的新方法

研究人员发现,大型语言模型在视频问答(VideoQA)中有时会出现错误,这是因为它们过于依赖语言而忽略了实际的视频内容。为了解决这个问题,研究人员引入了一种名为Flipped-VQA的新方法,这种方法使得这些模型更好地...

Read More
2023-11-17 talkingdev

论文:直接偏好优化提高模型的真实性

根据偏好优化模型是促进ChatGPT普及的突破之一。类似的技术也可以用来提高模型的正确性和真实性,将医学回忆中的错误减少50%以上。

Read More
2023-11-14 talkingdev

深度探究:对语言模型的对抗攻击

本文介绍了对语言模型系统正在出现的不同攻击方式。它包含了关于不同类型攻击的优秀信息,以及一些已被证明有效的缓解措施。近年来,随着人工智能技术的快速发展,语言模型在自然语言处理等领域的应用越来越广泛。但...

Read More
2023-11-13 talkingdev

论文:优化数据清洗方案,提高LLMs的训练效果

近日,一项研究提出了一种更好的数据清洗方法,以确保LLMs的公正测试,并提高它们的可靠性。传统的数据清洗方法可能会导致LLMs训练不公平,因为某些数据可能会被错误地标记或过滤掉。这项研究提出的解决方案可以更好...

Read More
2023-11-09 talkingdev

Nvidia正在为工程师推出生成式AI进行试点测试

Nvidia在IEEE/ACM计算机辅助设计国际会议上发表主题演讲,介绍了一款名为ChipNeMo的大型语言模型,旨在提高芯片设计师的生产力。尽管尚未完全证明,但ChipNeMo有助于为设计工具编写脚本,总结错误报告,并为设计师提...

Read More
2023-11-02 talkingdev

论文:大型语言模型从错误中吸取教训

最近的一项研究引入了一种名为“从错误中学习”(LeMa)的方法,通过从错误中学习来教授大型语言模型解决数学问题,类似于人类学生通过纠正错误来提高自己。

Read More
2023-10-26 talkingdev

SpellTest:基于Github的AI-to-AI测试

SpellTest是基于Github的一个新项目,旨在为基于LLM的应用提供AI-to-AI测试。LLM是一种基于语言模型的学习方法,常用于在自然语言处理和计算机视觉等领域。SpellTest可以帮助开发者在应用程序中减少拼写错误,并自动...

Read More
  1. Prev Page
  2. 10
  3. 11
  4. 12
  5. Next Page