基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端提供统一的资源数据、工具调用、以及可渲染的 Prompt 模板等上下文服务,通过 JSON-RPC 进行通信,支持会话管理、能力声明与多传输协议接入。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行,以及可渲染的提示模板,按标准 JSON-RPC 方式与客户端通信,为 LLM 客户端提供统一的上下文数据与外部功能入口。
基于模型上下文协定(MCP)的后端服务器实现,提供资源管理、工具注册/执行、以及提示模板渲染等核心能力,并通过 JSON-RPC/SSE 提供给 LLM 客户端使用的上下文服务与功能调用入口,同时包含 REST API、权限与计费等完整实现。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源(Resources)、工具(Tools)和提示模板(Prompts)的注册、管理和渲染能力,并通过 JSON-RPC 与客户端通信,支持 SSE 传输模式的事件推送,适合作为 LLM 客户端的上下文服务和外部功能执行入口。
基于 Model Context Protocol (MCP) 的后端服务端实现,提供资源托管、工具注册/执行与提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(如 stdio、SSE、WebSocket),实现自托管的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端实现,用于向 LLM 客户端以标准化方式提供资源、工具和提示模板等上下文服务,并通过 JSON-RPC 与客户端通信,支持多种传输方式(当前以 Stdio 为主)。它包含工具注册、任务流管理等核心能力,旨在为学术研究相关的 LLM 应用提供可扩展的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端提供资源数据、工具执行能力和 Prompt 模板渲染等上下文服务,支持通过标准化的 JSON-RPC 方式交互,并可通过 STDIO、SSE/HTTP 等传输协议进行通信与会话管理。
基于 Model Context Protocol (MCP) 的 MCP 服务器实现,提供资源管理、工具注册/执行、Prompt 模板定义与渲染等能力,作为后端上下文服务框架供 LLM 客户端通过 JSON-RPC 进行资源访问、外部功能调用与交互模板渲染。仓库中包含多个可运行的 MCP 服务器示例,支持通过标准化接口对接 Claude/LLM 客户端。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的托管与管理,支持 JSON-RPC 客户端交互,并具备会话管理与多传输协议扩展能力,适用于向 LLM 客户端提供可访问的数据、外部功能与定制化提示。
Caramba MCP Server是一个基于Go语言的MCP服务器实现,旨在为LLM客户端提供资源、工具和Prompt模板等上下文服务。