基于 Model Context Protocol 的 MCP 服务器实现,提供工具调用、资源与提示管理,以及对外部能力的扩展,通过 JSON-RPC 在标准输入输出(STDIO)或未来扩展的传输方式与客户端交互。
基于 Model Context Protocol (MCP) 的后端服务,按标准化方式向 LLM 客户端提供资源、工具与 Prompt 模板,并通过 JSON-RPC 进行通信,支持多传输协议与会话管理,适用于以上下文驱动的 AI 应用场景。
基于 Model Context Protocol (MCP) 的后端服务端实现,提供资源、工具、提示模板的注册、执行与渲染,并通过 JSON-RPC 与 MCP 客户端进行通信,支持会话管理、能力声明,以及资产的管理与扩展。
基于 Model Context Protocol (MCP) 的后端服务,提供资源存储、工具注册与执行、以及 Prompt 模板的渲染与管理,通过 JSON-RPC 与客户端通信,支持 HTTP/API、STDIO 等传输方式,并集成了 OpenCode Manager、OAuth 2.1 等扩展功能,适用于向 LLM 客户端提供可扩展的上下文与能力服务。
基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 方式暴露资源管理、工具执行以及提示模板的能力,核心通过 registerTool 将大量 Google Workspace 相关操作暴露为可调用的工具集,支持以 Stdio 传输等多种通信方式进行上下文服务与会话管理。
基于 Model Context Protocol (MCP) 的后端服务实现,提供可供大模型(LLM)客户端查询的任务、仓库、项目等上下文与执行能力,通过 JSON-RPC 风格的 MCP 通信,将后端数据与功能暴露给 LLM 客户端使用,并支持通过标准的 MCP 服务器接口执行工具与任务流程。
基于 Model Context Protocol(MCP)的服务器端实现示例集合,展示如何暴露工具、资源与 Prompt 模板,并通过 JSON-RPC 与客户端进行通信,涵盖多种 MCP 服务端实现与用法,适合作为后端上下文服务的参考实现。
一个功能全面的模型上下文协议 (MCP) 服务器,通过标准化接口,让大型语言模型 (LLM) 客户端能够无缝访问和管理 CustomGPT 智能体及其数据。