漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-19 talkingdev

NeuralFlow开源-神经流中间层输出的可视化

NeuralFlow神经流是一个Python脚本,用于绘制Mistral 7B的中间层输出。它产生一个512 x 256的图像,表示模型的每一层的输出。

Read More
2024-02-12 talkingdev

如何通过qapair提示训练Mistral-7B模型以实现更好的微调

HelixML实现了一套qapair提示,从各种不同的角度提取内容,并为每个文档生成内容寻址哈希。这使得微调Mistral-7B模型的效果更好。

Read More
2024-02-09 talkingdev

Smaug-72B:开源AI模型的新王者

Abacus AI开发的一款名为“Smaug-72B”的新型开源语言模型,源自阿里巴巴集团的Qwen团队开发的“Qwen-72B”,现在领导Hugging Face的自然语言处理排行榜。在各种基准测试中,Smaug-72B胜过了已经成熟的模型,如GPT-3.5和...

Read More
2024-02-02 talkingdev

Mistral CEO确认泄露的新开源AI模型接近GPT-4的性能

AI社区因HuggingFace和4chan分享的一个名为“miqu-1-70b”的泄漏大型语言模型而感到兴奋。该模型表现出能与OpenAI的GPT-4相媲美的性能,并与Mistral的Mixtral 8x7b有关。Mistral的CEO确认这是一位热情的客户泄露的,这...

Read More
2024-02-01 talkingdev

Mistral CEO确认新的开源AI模型泄露,接近GPT-4的性能

本周,Mistral公司的CEO确认了Mistral的一个量化版本文件在HuggingFace上泄露,该技术使得在较弱的电脑和芯片上运行某些AI模型成为可能。据报道,该模型在EQ-Bench上超过了全球所有其他LLM模型,仅次于GPT-4。Mistra...

Read More
2024-01-26 talkingdev

Ollama发布Python和JavaScript库,让开发者轻松本地运行LLM

Ollama发布了Python和JavaScript库的初始版本,使得开发者能够在几行代码中将新的和现有的应用程序与Ollama集成。Ollama支持广泛的模型,包括Mistral、Dolphin、Llama2和Orca,使得开发者可以轻松地在本地运行大型语...

Read More
2024-01-25 talkingdev

自动训练的PairRM与DPO

一种非常强大的新Mistral曲调,利用巧妙的弱监督和合成数据生成与DPO兼容的数据集。 描述的过程可以重复多次并应用于各种企业用例。

Read More
2024-01-03 talkingdev

论文:微软研究使用LLM改进文本嵌入技术

微软的研究人员使用合成数据来训练基于Mistral的解码器,以改进嵌入技术。该技术是同类产品中最佳的。有趣的是,他们使用GPT-4的两步提示策略来生成合成检索训练数据。

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page