漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-06-26 talkingdev

EvalAlign:一种文本到图像生成模型评估指标

EvalAlign是一种新型的用于改进文本到图像生成模型评估的指标。与现有的评估指标不同,EvalAlign提供了细粒度的准确性和稳定性。它主要关注图像的真实性和文本与图像的对齐性。与其他评估指标不同的是,EvalAlign不...

Read More
2024-02-26 talkingdev

基于标注数据的LLM评估指标

本文讨论依赖于真实标注数据的评估指标。它探讨了通用和RAG特定的评估指标。所有指标都带有Python实现或指向一个Hugging Face模型卡的链接。

Read More
2024-02-12 talkingdev

HF开源轻量级评估库 lighteval

HuggingFace发布了一个轻量级的评估库lighteval,用于基于HELM和Eluther AI评估工具的语言模型训练。该评估库专注于提供高效易用的评估方法和指标,帮助用户快速准确地评估模型性能。同时,lighteval还提供了丰富的...

Read More
2024-01-29 talkingdev

AgentBoard提升模型评估能力,多轮LLM评估升级

近日,研发团队宣布推出了AgentBoard,一款专为多轮LLM代理设计的基准测试工具。AgentBoard不仅可以评估LLM代理的最终成功率,还提供了分析评估板以进行更详细的模型评估。这款工具可以更全面地评估LLM代理,为LLM代...

Read More
2024-01-26 talkingdev

生产环境中的LLM应用评估指标

本文讨论不依赖于基准数据的评估指标。文章探讨了通用的以及特定于RAG、聊天机器人和摘要的评估方法。所有指标都附带Python实现。

Read More
2024-01-11 talkingdev

文本到3D模型的评估指标

研究人员开发了一种新的文本到3D生成模型的评估指标,解决了当前单一标准指标的局限性。这种先进的方法使用GPT-4V来创建提示并比较3D资产。它与人类偏好密切相关,并通过适应各种用户定义的标准来提供多样性。

Read More
2023-12-19 talkingdev

DeepEval,开源LLM应用评估框架

DeepEval是一款全能的LLM应用评估框架,可让用户轻松识别和迭代不令人满意的LLM输出。它目前提供了14+种评估指标,如幻觉、摘要、G-Eval、RAGAS等,供用户以Pytest样式或组件化方式评估整个数据集。

Read More
2023-08-10 talkingdev

Parea AI:专为监控和调试LLM应用的开发者工具包

Parea AI是一个开发者工具包,专门用于调试和监控LLM应用。用户可以以版本化的方式实验提示和模型配置。在较大规模上,使用自定义的Python评估指标来评估提示。通过API监控LLM应用,并在仪表板上查看分析数据。Parea...

Read More