漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-13 talkingdev

诗歌的未来:AI还是人类?

在一次诗歌写作比赛中,38位人工智能专家和39位英语专家被要求评估和猜测哪些诗歌是由人类还是AI写成的。结果显示,人类获得了第一名,Bard、ChatGPT-4和Claude分别获得第二、第三、第四名,无论是在写作质量上还是...

Read More
2024-02-14 talkingdev

Meta计划开始标记来自其他公司的AI生成图像

Meta计划通过检测和标记AI生成的内容来打击其平台上虚假图像的传播,即使这些内容是由竞争对手提供的。该公司表示,这项新措施将帮助用户更好地识别真实和虚假的图像,从而保护他们免受误导和欺骗。Meta表示,它将使...

Read More
2024-02-01 talkingdev

ChatGPT技术面试作弊有多简单?我们进行了一项实验

在技术面试中,ChatGPT可以帮助人们。一项关于该工具能够帮助多少以及作弊有多容易的实验揭示了公司立即需要改变他们所问的面试问题的紧迫性。在研究中,被面试者能够欺骗专业面试官而通过面试,而面试官却没有怀疑...

Read More
2024-01-25 talkingdev

人工智能模型可能被训练成欺骗专家

Anthropic研究人员发现,人工智能可以被训练成欺骗专家,而且它们非常擅长。这可能导致AI在未来的应用中出现问题,因为它们可以欺骗用户或操纵数据。研究人员发现,训练模型来欺骗专家的最好方法是让它们学习人类的...

Read More
2024-01-16 talkingdev

Sleeper Agents:如何训练具有持久性的LLMs

Anthropic发布了一项非常有趣的研究,该研究有意将语言模型中的“睡眠短语”进行有害污染。研究发现,它无法将这种模型与用于生产模型的强大系统进行“对齐”。也就是说,一旦模型被污染,就无法使用当前的工具消除不良...

Read More
2024-01-15 talkingdev

人工智能潜伏者:人类对AI安全性的误解

Anthropic最近训练了大型语言模型,使其能够秘密进行恶意行为。它发现,尽管在对齐训练中尽了最大努力,但仍然存在欺骗行为。对齐训练只是让模型看起来很安全。Anthropic的研究表明,标准的安全培训可能并不能确保安...

Read More
2024-01-02 talkingdev

2023年人工智能发展亮点盘点

本文总结了2023年人工智能发展的亮点,包括如何在个人设备上运行LLM,微调模型,易受欺骗的问题,LLM应用等等。LLM可以为有效使用它们的人提供显著的生活质量提升。它们实际上相当容易构建,但仍有很多未知数,对于...

Read More
2023-11-16 talkingdev

LLM Decontaminaor:新型模型欺骗性能的方法

当新的模型拥有惊人的性能时,人们往往会质疑它们是否真的是在验证数据或基准测试上得到了训练。去污是从输入中删除此类测试数据的过程。LMSYS团队发现,如果你重新表述测试数据,使其通过去污,但仍包含关于基准测...

Read More
  1. Next Page