漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-06-12 talkingdev

论文:评估医疗模型的可信度,CARES全面评估框架

CARES是一个全面的评估框架,用于评估医疗大视觉语言模型(Med-LVLMs)的可信度。该框架的目标是确保这些模型能够在医疗环境中提供可靠且准确的结果。就像其他的人工智能模型一样,医疗大视觉语言模型的可信度是其成...

Read More
2024-05-23 talkingdev

斯坦福HAI发布最新基础模型透明度指数

斯坦福大学人类中心人工智能研究院(Stanford HAI)发布了最新版本的基础模型透明度指数,对包括OpenAI和Google在内的14家主要人工智能开发商的透明度进行了评估。这些公司披露了之前未向公众公开的新信息,标志着在...

Read More
2024-05-10 talkingdev

OpenAI公布模型规范,明确模型在各种场景下的行为预期

OpenAI最近发布了一份文件,详细阐述了公司希望其模型在各种场景下的行为表现。这份文件的公布,标志着OpenAI对于模型行为的透明度和可预测性的重视。通过明确模型的行为预期,OpenAI希望能进一步优化其模型在实际应...

Read More
2024-02-20 talkingdev

Anthropic推出Prompt Shield技术以防止选举谣言

Anthropic正在测试Prompt Shield技术,该技术旨在将寻求政治和投票信息的Claude聊天机器人的美国用户重定向到TurboVote等权威来源。

Read More
2024-02-16 talkingdev

DALI:可信自主智能Agent框架开源

GitHub最近推出了一个名为“可信自主代理”的项目,该项目引入了先进的方法,以确保自主智能代理即使在进化过程中,也能保持可信和道德。该项目的目的是解决在生命相关应用程序中,这些代理对人类的安全和健康至关重要...

Read More
2024-01-22 talkingdev

如何提高AI解释的可信度

本项目通过引入两个新版本:Smooth MPRT和Efficient MPRT,改进了模型参数随机化测试,这是eXplainable AI(XAI)中的关键工具。

Read More
2023-04-10 talkingdev

“羊驼效应”:泄漏事件引发一系列ChatGPT开源替代品

新闻内容: 以下是本文报道的三个核心要点: - 最近,一份关于ChatGPT代码泄漏的文件被公开,引发了广泛的关注。该泄漏事件揭示了ChatGPT的一些机密信息,包括其算法和训练数据。这些信息被用来创建一些开源的Chat...

Read More