漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-07-19 talkingdev

LLM2sh:让命令行更人性化的开源工具

GitHub近日发布了一款命令行实用工具——LLM2sh。这项工具的主要功能在于利用LLMs技术,将用户的普通语言请求转化为shell命令。通过LLM2sh,用户可以用日常语言来控制和指导计算机操作,提升了命令行的便利性和亲和力...

Read More
2024-07-19 talkingdev

E5-V开源-全球多模态嵌入与LLMs

E5-V是一种新的框架,其改编了多模态大型语言模型(MLLMs)以创建全球多模态嵌入。通过使用提示,它弥补了不同输入类型之间的差距,而无需进行微调就实现了在多模态任务中的令人印象深刻的性能。这一全球多模态嵌入...

Read More
2024-07-19 talkingdev

论文:补丁级别训练技术提高LLMs的效率

研究人员提出了针对大型语言模型(LLMs)的补丁级别训练,以提高训练效率。补丁级别训练是一种新的技术,目的是优化大型语言模型的处理能力。这种方法通过在训练过程中引入更精细的补丁级别,提高了模型的训练效率,...

Read More
2024-07-18 talkingdev

企业真的准备好接受LLM了吗?最新研究报告揭秘

据Composable最新发布的一份报告,81%的技术团队预计在未来两年内将运行2个以上的GenAI模型。然而,为何大多数的项目仍处于试验阶段?这是许多业界人士都在关注的问题。此份报告详尽地分析了当前企业在实施LLM方面的...

Read More
2024-07-18 talkingdev

PraisonAI:简化多Agent系统创建与控制的低代码框架

Praison AI是一个低代码,集中式框架,旨在简化多代理系统的创建和协调,以便于各种LLM应用。该框架利用其他代理框架,具有易于使用,定制和人-代理交互等特点。Praison AI的主要优势在于其将复杂的多代理系统开发流...

Read More
2024-07-18 talkingdev

Prover-Verifier改善LLM可读性

OpenAI训练了一个强大的模型,以便为弱模型输出更易读的文本,并发现这导致了LLM整体可读性的普遍提高。通过对弱模型进行精准评估,强模型的文本输出效果得到大幅提升。在日常实际应用中,这种提升将促进文本信息的...

Read More
2024-07-17 talkingdev

SmolLLM-HF推出高性能小语言模型

Hugging Face近日推出了一套名为SmolLLM的小型语言模型套件,其性能超越许多大型模型。这主要得益于数据集的精心策划和管理。SmolLLM以其精细的设计和优化,展示出了小型语言模型的巨大潜力和价值。这种模型不仅在处...

Read More
2024-07-17 talkingdev

DeRTa-提升LLMs安全性,解耦拒绝训练方法

近日,一种名为解耦拒绝训练(DeRTa)的新方法被提出,这种新方法通过解决拒绝位置偏差问题,进一步提高了大型语言模型(LLMs)的安全性调优效果。LLMs在各类应用场景中起着重要作用,安全性问题也因此变得尤为重要...

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page