漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-01-26 talkingdev

Ollama发布Python和JavaScript库,让开发者轻松本地运行LLM

Ollama发布了Python和JavaScript库的初始版本,使得开发者能够在几行代码中将新的和现有的应用程序与Ollama集成。Ollama支持广泛的模型,包括Mistral、Dolphin、Llama2和Orca,使得开发者可以轻松地在本地运行大型语...

Read More
2024-01-12 talkingdev

本地部署AI模型现在也能拥有视觉能力

Ollama现在支持视觉模型啦,这意味着您可以在MacBook Pro上运行Llava,实现最先进的视觉和语言性能。 随着人工智能技术的发展,AI的应用场景越来越广泛。然而,由于许多私人AI的计算能力和算法限制,它们往往无法像...

Read More
2023-12-12 talkingdev

使用Ollama在本地运行LLMs

Ollama就像是llama cpp模型周围的软件包管理器。它具有易用性和质量生活功能,甚至可以在CPU上轻松运行模型。本示例展示了如何运行两个优秀的模型,Dolphin和Samantha,它们是用于对话任务的优秀未过滤模型。

Read More
2023-11-23 talkingdev

用LangChain在Go中集成LLM

LangChain是一款可以方便地将语言模型集成到您的Go程序中的工具。这包括使用Ollama等框架运行本地模型。

Read More
2023-10-23 talkingdev

深度探讨:构建基于LLM的Web应用程序

大多数组织机构没有资源在GPU上运行大型模型,但是有一个强大的开源推动力量在本地运行这些模型。本文探讨了这种推动力量以及LangChain + Ollama集成。 LLN(Local Low Rank Normalization)是一种用于处理基于卷积...

Read More
2023-10-02 talkingdev

Ollama:让本地LLM模型运行变得简单

随着越来越多的新模型问世,寻找一种能够轻松拉取并运行这些模型的方法变得具有挑战性。而且,重新混合和制作这些模型也不是一件容易的事情。然而,这款名为Ollama的小工具让测试最新模型变得简单。这款工具具有用户...

Read More
2023-08-01 talkingdev

Ollama开源:运行、创建和分享大型语言模型

Ollama是一个发布在GitHub上的项目,专为运行、创建和分享大型语言模型而设计。它为开发者和研究者提供了一个集成的平台,可以方便的搭建、训练并分享他们的语言模型。这些模型可以应用于各种语言处理任务,如机器翻...

Read More
2023-07-21 talkingdev

Ollama:在macOS上运行和打包大型语言模型

近日,GitHub上出现了一个名为Ollama的新项目,它专为在macOS系统上运行和打包大型语言模型而设计。Ollama项目为那些在macOS上使用大型语言模型的开发者提供了一种简便的解决方案,帮助他们更轻松地将这些模型集成到...

Read More
  1. Prev Page