基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等核心 MCP 功能,支持 JSON-RPC 的客户端通信、WebSocket/StdIO等多传输协议,以及多项目会话与历史持久化等特性。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的管理、提示模板的渲染,以及通过 WebSocket 与 MCP 客户端进行 JSON-RPC 风格的交互,支持 OpenCode 等客户端的上下文与采样流程。
基于 Model Context Protocol 的后端服务器,为 LLM 客户端提供标准化的上下文、资源、工具与提示模板,并通过 JSON-RPC/WebSocket 实现 MCP 通信与扩展能力,支持会话管理、权限控制与多传输协议接入。
一个将 LangChain 代理与 MCP 服务器整合的后端平台,包含可运行的 MCP 服务器示例(Mock),用于向大模型客户端提供资源、工具和提示模板等上下文信息,并提供完整的服务端框架以注册、管理 MCP 服务器和工具权限,支持实时通信与安全认证等能力。
基于AWS Lambda的MCP服务器实现,通过Server-Sent Events (SSE) 提供实时的上下文服务,支持工具、资源和Prompt管理。
基于LangChain4j和Spring Boot实现的MCP服务器,提供工具服务和SSE实时通信。
该仓库是基于Server-Sent Events (SSE) 的MCP服务器示例实现,旨在Netlify Edge Functions上部署,提供资源、工具和Prompt管理等核心MCP功能。