漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-12-19 talkingdev

微调Mistral 7B在卡牌游戏中的应用

通过在魔法飞天卡牌游戏中进行微调实验,以提高GPT-4的性能,获得了一个精细调整的7B参数模型,其性能接近于人类水平。

Read More
2023-12-13 talkingdev

HuggingFace 发布 Transformers 4.36.0 版本,新增 Mistral 模型和 AMD 支持

近日,HuggingFace 发布了最新版本的 Transformers 4.36.0。此次更新新增了 Mistral 模型和 AMD 支持等多项功能。同时,safetensors 已成为默认设置。HuggingFace 的这次更新将为 AI 模型的开发和训练提供更加便利的...

Read More
2023-12-12 talkingdev

Mistral发布新模型并宣布获得新一轮融资

人工智能公司Mistral将在新一轮融资中获得超过4亿美元的资金。该公司还发布了一款8x7B混合专家模型,目前正在社区进行评估。Mistral致力于为客户提供最优质的人工智能产品和服务。他们的新一轮融资将用于推动产品开...

Read More
2023-12-11 talkingdev

MistralMLX文本生成示例

最近,Mistral发布了一个使用MLX生成文本的示例,这是一种基于人工智能的技术,它可以生成高质量的自然语言文本。该示例代码可以在GitHub上找到,它展示了如何使用Mistral的MLX库来生成文本。MLX库是Mistral的核心开...

Read More
2023-12-06 talkingdev

Perplexity AI推出在线LLM,或将取代谷歌搜索

Perplexity AI将网络索引和最新信息与会话式AI聊天机器人界面相结合,有可能取代谷歌。该公司最近发布了从Mistral和Meta开源模型中微调和增强的版本。这些模型旨在提供有用、真实和最新的信息。它们是第一个基于网络...

Read More
2023-11-17 talkingdev

如何在树莓派上运行LLMs

最近有人在一只填充的鹦鹉上装上了Mistral的7B型号,这在网上引起了轰动。本文深入探讨了他们用来使其运行的基本思想。

Read More
2023-11-07 talkingdev

HelixNet:开源三合一模型显著提升生成性能

最近,一项名为HelixNet的新研究显示,如果微调Mistral基础架构的三个任务特定模型,一个用于生成,一个用于批判,最后一个用于再生,则整个系统的生成性能显着提高。该研究使用合成数据来调整这些模型。HelixNet的...

Read More
2023-11-06 talkingdev

Nous研究使用Yarn方法优化Mistral 7B模型,可处理长达128k的语境

Nous研究利用他们的Yarn方法对Mistral 7B进行了微调,可以处理长达128k的语境。它在短序列长度上显示出最小的退化,并在长文档上大大提高了性能。

Read More
  1. Prev Page
  2. 5
  3. 6
  4. 7
  5. Next Page