基于 Model Context Protocol (MCP) 的 MCP 服务器实现,旨在为 LLM 客户端提供标准化的上下文服务:托管资源、注册和执行工具,以及定义与渲染提示模板,并通过 HTTP JSON-RPC 与客户端进行交互,支持会话管理与多传输模式(如 HTTP/StdIO)。
基于 Model Context Protocol (MCP) 的后端服务器实现,正式提供资源、工具与提示的插件化管理,并通过 JSON-RPC 与客户端进行交互,支持多传输协议(如标准输入输出、SSE、WebSocket),为 LLM 应用提供可扩展的上下文服务。
基于 Model Context Protocol(MCP)的后端服务,提供资源托管与访问、工具注册与执行、以及可定制的 Prompt 模板渲染,统一通过 JSON-RPC 与客户端交互,并支持多种传输方式(HTTP/SSE/stdio)以实现对大语言模型客户端的上下文与功能服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,将 SkillNote 中的技能暴露为 MCP 工具,支持实时变更通知、资源管理和多传输协议,以便与各类大语言模型客户端进行标准化的上下文与功能对接。
基于 Model Context Protocol 构建的本地 MCP 服务器,提供可持久化内存资源、可注册并执行的工具,以及可渲染的 Prompt 模板,供大语言模型客户端以标准化的 JSON-RPC 方式获取上下文数据与功能。
基于 Model Context Protocol (MCP) 的后端服务器,整合 Eclipse MAT 的资源、工具与 OQL 查询能力,通过 JSON-RPC 向 LLM 客户端提供统一的上下文、查询和执行接口。
基于 Model Context Protocol (MCP) 的后端实现,作为 Claude Code Harness 的核心服务之一,负责托管资源(Resources)、注册及执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与 LLM 客户端进行标准化交互,提供上下文信息、数据访问与外部功能调用等能力,支持多种传输方式(如标准输入输出、SSE、WebSocket 等)以实现安全、可扩展的后端上下文服务框架。
基于 Model Context Protocol(MCP)的后端服务器实现,向大型语言模型客户端提供统一的资源管理、工具注册与调用,以及可定制的 Prompt 渲染能力;通过 JSON-RPC 2.0 进行通信,支持多种传输协议(如 stdio、SSE、WebSocket),以实现安全、可扩展的上下文服务。
基于 Model Context Protocol 的后端服务器实现,向大型语言模型客户端提供 Google Workspace 的资源、工具和 Prompt 模板,支持多服务整合、认证管理与可扩展的上下文服务。
一个基于 Model Context Protocol 的服务器实现,向大语言模型提供 Appwrite API 的资源、工具与提示模板,并通过 JSON-RPC 进行通信,作为 MCP 后端服务。
基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,提供离线文档资源管理、工具执行接口以及提示模板渲染,供大模型客户端在本地环境中进行高效、私有的上下文查询与交互。
基于 Model Context Protocol 的 MCP 服务器实现,提供文档源注册、资源查询与工具执行等能力,通过标准化的 JSON-RPC(以 stdio 为传输)与客户端通信,为 LLM 应用提供文档上下文服务与查询能力。
基于模型上下文协议(MCP)的 Verkada API 后端服务器,提供资源管理、工具注册与执行,以及提示模板渲染等能力,通过 JSON-RPC 与大语言模型客户端进行通信,具备本地部署与扩展能力,并内置对 Verkada API 的工具集和请求处理框架。
基于 Model Context Protocol(MCP)的后端服务,用于Git仓库资源的托管、工具注册/执行以及Prompt模板渲染,供LLM客户端通过JSON-RPC进行上下文服务交互。支持会话管理、能力声明,以及多传输协议(如 StdIO、SSE、WebSocket)等扩展能力,并提供Lean MCP接口以降低上下文消耗,便于在不同场景下与LLM进行高效交互与功能扩展。
基于 Model Context Protocol (MCP) 的后端网关,提供资源与工具注册/执行、Prompt 渲染与上下文服务,并通过 JSON-RPC 与 MCP 客户端进行安全、可扩展的通信。
基于 Model Context Protocol(MCP)的后端服务器实现,托管并管理资源(Resources)、注册并执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),通过标准的 JSON-RPC 方式向 LLM 客户端提供上下文信息与功能,并支持组件化扩展与会话分析。<br/>该仓库实现了完整的 MCP 服务端框架及多组件插件,能够在 Node.js 环境中运行并对外提供 MCP 接口。<br/>注:项目使用 stdin/stdout 作为传输通道(Stdio Server Transport),并提供了丰富的组件体系以实现资源、工具、提示模板等能力。
基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具和 Prompts 的统一访问与渲染能力,支持通过标准化的 JSON-RPC 进行通信,并可通过 STDIO 等传输通道接入。
gomcp 是一个使用 Go 语言编写的 Model Context Protocol (MCP) 服务器的非官方实现,旨在为 LLM 应用提供工具和 Prompt 服务。