漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-10-25 talkingdev

揭示LLMs不确定性的检测方法

在人工智能领域,尤其是大型语言模型(LLMs)的应用中,理解模型的不确定性变得愈发重要。通过有效地检测LLMs在生成内容时的不确定性,开发者和研究人员可以更好地评估模型的可靠性和适用性。当前的研究表明,采用嵌...

Read More
2024-10-11 talkingdev

论文:深入探讨LLMs数学推理的局限性

近年来,LLMs在自然语言处理领域取得了显著进展,但在数学推理方面仍存在诸多局限性。尽管这些模型能够处理大量文本数据并生成复杂的语言输出,但它们在执行数学运算和逻辑推理时常常表现不佳。研究显示,LLMs在应对...

Read More
2024-10-04 talkingdev

LLMs与心智理论:探讨Cheryl的生日启示

在人工智能领域,LLMs(大规模语言模型)正逐渐成为研究的热点,尤其在心智理论(Theory of Mind)方面的应用。心智理论是指个体理解他人心理状态的能力,这一概念在社会交往中至关重要。最近,研究者们通过模拟Cher...

Read More
2024-08-02 talkingdev

Ell开源-用Bash编写的LLM命令行界面

新闻内容:Ell是一个用Bash编写的命令行界面,用于管理和操作LLMs。它支持各种LLM,如OpenAI的GPT-3和Facebook的RoBERTa。Ell不需要安装任何其他软件,只需要在Bash终端中运行即可。它提供了一个简单易用的界面,以...

Read More
2024-07-22 talkingdev

MoME-提升多模态语言模型性能的新方法

研究人员提出了一种名为“多模态专家混合体” (MoME) 的方法,以解决通用的多模态大型语言模型(MLLMs)中的任务干扰问题。在多模态大型语言模型中,任务干扰是一个常见的问题,它可能会影响模型的性能和效率。MoME的提...

Read More
2024-07-19 talkingdev

LLM2sh:让命令行更人性化的开源工具

GitHub近日发布了一款命令行实用工具——LLM2sh。这项工具的主要功能在于利用LLMs技术,将用户的普通语言请求转化为shell命令。通过LLM2sh,用户可以用日常语言来控制和指导计算机操作,提升了命令行的便利性和亲和力...

Read More
2024-07-19 talkingdev

E5-V开源-全球多模态嵌入与LLMs

E5-V是一种新的框架,其改编了多模态大型语言模型(MLLMs)以创建全球多模态嵌入。通过使用提示,它弥补了不同输入类型之间的差距,而无需进行微调就实现了在多模态任务中的令人印象深刻的性能。这一全球多模态嵌入...

Read More
2024-07-19 talkingdev

论文:补丁级别训练技术提高LLMs的效率

研究人员提出了针对大型语言模型(LLMs)的补丁级别训练,以提高训练效率。补丁级别训练是一种新的技术,目的是优化大型语言模型的处理能力。这种方法通过在训练过程中引入更精细的补丁级别,提高了模型的训练效率,...

Read More
2024-07-17 talkingdev

DeRTa-提升LLMs安全性,解耦拒绝训练方法

近日,一种名为解耦拒绝训练(DeRTa)的新方法被提出,这种新方法通过解决拒绝位置偏差问题,进一步提高了大型语言模型(LLMs)的安全性调优效果。LLMs在各类应用场景中起着重要作用,安全性问题也因此变得尤为重要...

Read More
2024-06-28 talkingdev

苹果、微软缩小AI模型以提升性能

科技巨头们正在将注意力从大型语言模型转移到更有效的小型语言模型(SLMs),苹果和微软引入的模型具有明显较少的参数,但在基准测试中的性能却相当甚至超越了大型语言模型。OpenAI的CEO建议,我们正在超越LLMs的时...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page