返回首页

"Ollama" 标签

25 个结果

标签搜索结果

网页与API

Tlamatini MCP 服务器

基于 Model Context Protocol(MCP)的多传输 MCP 服务器实现,向 LLM 客户端提供资源托管、工具注册/执行、以及提示模板渲染等上下文与能力。内部包含WebSocket(系统指标 / 资源上下文)与 gRPC(文件检索)等服务器组件,具备会话管理与多用户隔离能力,支持向客户端暴露资源、工具、提示等 MCP 相关信息,并通过相应传输协议进行请求/响应与通知。

AI与计算

Medsci MCP 生物医学多域后端

基于 Model Context Protocol (MCP) 的后端服务器集合,为大模型客户端提供资源管理、工具执行与 prompts 渲染等标准化上下文服务,包含药物、蛋白、组学、文献、成像、沙盒等领域服务器,以及 PaperQA 等深度分析组件的本地化实现。

AI与计算

mcp-rag MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,将本地代码库和文档转化为可检索的资源,提供语义搜索和类型查找等能力,供 LLM 客户端通过 MCP 进行上下文获取与外部调用。

AI与计算

token-compressor MCP 服务器

基于 Model Context Protocol 的本地提示压缩服务端,暴露 compress_prompt 工具,使用 Ollama 的 llama3.2:1b 进行文本压缩并通过 nomic-embed-text 进行嵌入验证,向 MCP 客户端提供压缩文本及相关元信息。

AI与计算

Directory Indexer MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对本地目录的语义检索、索引管理与工具调用能力,支持通过 MCP 客户端以 JSON-RPC 方式交互。

AI与计算

AI Craftsman Knowledge Rag MCP Server

基于 Model Context Protocol (MCP) 的本地知识检索后端服务器,向大语言模型客户端暴露知识源查询与源信息工具,支持项目级/全局知识库、向量检索以及本地嵌入计算,便于在本地环境中实现私有化、可控的知识上下文服务。

开发者工具

AOG MCP 服务器 - Model Context Protocol 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具与提示模板的标准化上下文服务,能够与 AOG(AI Open Gateway)后端通过 JSON-RPC 风格交互,支持多种传输方式并具备插件化能力。

AI与计算

Final - Ollama MCP服务

"Final"是一个AI代理基础设施,其MCP模块提供基于Ollama本地大模型的标准化上下文服务,支持模型管理、代码智能辅助和多轮对话。

AI与计算

Ollama 模型上下文协议 (MCP) 服务器

将本地 Ollama 模型与外部功能通过 MCP 协议暴露给大型语言模型 (LLM) 客户端。

AI与计算

Hatchling

一个交互式CLI聊天应用,集成Ollama本地大模型,内置并使用Model Context Protocol (MCP) 服务器提供工具能力。

AI与计算

Assistente de Busca de Veículos com MCP

Aplicação que utiliza protocolo MCP para integrar um LLM (Ollama) na busca e apresentação de dados de veículos de um banco SQLite.

桌面与硬件

Pipulate工作流框架

Pipulate是一个本地优先的桌面应用框架,为AI工作流提供上下文服务,可作为轻量级MCP服务器使用。

桌面与硬件

Ollama Desktop API

Ollama Desktop API 为桌面应用提供 AI 模型服务,集成 MCP 协议,支持工具扩展和会话管理。

AI与计算

Ollama MCP 服务器

Ollama MCP 服务器是一个基于 Model Context Protocol (MCP) 的服务器实现,它允许 LLM 客户端通过标准化的 JSON-RPC 协议与 Ollama 模型进行交互,提供本地模型推理能力作为工具。

AI与计算

Spring AI MCP摘要服务器示例

基于Spring AI框架实现的MCP服务器,提供通过工具调用的文本摘要功能。

AI与计算

多模型顾问 MCP 服务器

一个 MCP 服务器,通过查询多个 Ollama 模型,为用户提供来自不同 AI 模型的综合建议和多样化视角。

桌面与硬件

Blender Open MCP Server

blender-open-mcp 是一个 MCP 服务器,允许用户通过自然语言指令,利用本地AI模型(Ollama)控制 Blender 进行 3D 建模和场景操作。

开发者工具

Unity MCP Ollama 集成服务器

该项目实现了基于MCP协议的服务器,通过Ollama集成本地LLM,以自然语言控制Unity编辑器,实现自动化工作流程。

AI与计算

Ollama

一个MCP服务器,作为Claude Desktop客户端与Ollama LLM服务之间的桥梁,提供模型问答工具。

AI与计算

Ollama Deep Researcher

Ollama Deep Researcher MCP服务器是一个基于Model Context Protocol的应用后端,它利用本地Ollama大语言模型和网络搜索API,为AI助手提供深度研究工具,并以资源形式持久化研究结果。

AI与计算

Ollama

Ollama MCP Server是一个桥接Ollama和MCP协议的工具,允许MCP客户端通过标准化的方式调用本地Ollama LLM模型,进行模型管理、运行和OpenAI兼容的聊天补全。

AI与计算

Deepseek R1 Reasoner

Deepseek R1 Reasoner MCP Server为本地LLM客户端提供基于 Deepseek R1 模型的推理规划工具,支持通过 Ollama 运行本地模型。

AI与计算

Ollama

Ollama MCP Server 是一个基于 Model Context Protocol 的服务器,它桥接了 Ollama 本地大语言模型和 MCP 客户端应用,提供模型访问和管理能力。

AI与计算

DeepSeek Thinker

Deepseek Thinker MCP Server是一个基于MCP协议的服务,通过Deepseek模型为LLM客户端提供推理能力,支持OpenAI API和Ollama本地部署,并提供获取Deepseek模型思考过程的工具。

AI与计算

Ollama

MCP Ollama是一个MCP服务器,它将Ollama大语言模型的功能通过Model Context Protocol (MCP) 协议暴露出来,允许MCP客户端(如Claude Desktop)调用Ollama的模型,进行模型列表查询、模型信息查看和模型问答等操作。