基于 Model Context Protocol (MCP) 的本地后端服务,提供资源管理、工具注册与执行,以及提示模板渲染,通过 JSON-RPC 与 LLM 客户端进行交互,并支持本地化部署与多种传输方式。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等核心能力,并通过 JSON-RPC 与 LLM 客户端进行上下文信息托管和功能调用,支持会话管理与跨会话记忆,面向自动化代码与软件工程场景的上下文服务框架。
基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端提供资源管理、工具注册与执行、以及 Prompt 模板渲染等上下文服务,并通过 JSON-RPC 与客户端通信,支持 Claude Code 的多主体协作与扩展能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具与 Prompt 模板的注册、管理、执行与渲染,并通过 JSON-RPC 与客户端进行通信,支持多种传输方式与会话管理,便于 LLM 客户端获取上下文信息与外部功能。
基于 Model Context Protocol(MCP)的后端服务器实现;通过标准化的 JSON-RPC 方式向 LLM 客户端提供上下文信息、资源管理、工具注册与执行,以及可渲染的 Prompt 模板,支持多传输协议(如 Stdio、SSE、WebSocket),用于构建安全、可扩展的 LLM 上下文服务平台。
基于 Model Context Protocol(MCP)的广告自动化后端实现,提供资源、工具和 Prompt 模板的托管与管理,并通过 JSON-RPC 与客户端进行通信,支持多传输协议(如 STDIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol(MCP)的完整服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染,以及以 JSON-RPC 形式与客户端通信的能力,支持多传输通道(stdio、SSE、WebSocket)与会话管理,适合作为 LLM 客户端的上下文服务后端。
基于 Model Context Protocol (MCP) 的 HealthSim 后端实现,用于以标准化方式向 LLM 客户端提供上下文信息和功能,包括资源管理、工具注册/执行,以及提示模板渲染。服务器通过 JSON-RPC 与客户端通信,具备会话管理、能力声明,并对接多种传输协议(如 Stdio、SSE、WebSocket),为健康数据生成与模拟应用提供可扩展的上下文服务框架。
gomcp 是一个使用 Go 语言编写的 Model Context Protocol (MCP) 服务器的非官方实现,旨在为 LLM 应用提供工具和 Prompt 服务。