基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化方式暴露资源、工具与提示模板,支持多传输协议(如 STDIO、HTTP/WS)、会话管理与权限控制,完成资源托管、工具执行与提示渲染的完整 MCP 服务端功能。
基于 Model Context Protocol (MCP) 的 OpenStreetMap Tagging Schema MCP 服务器。该服务器托管并管理 OSM 标签的资源、工具和提示模板,通过 MCP JSON-RPC 风格的通信向 LLM 客户端提供上下文信息、数据访问能力和外部功能执行能力,支持多传输协议(stdio、HTTP、SSE 等),并实现会话管理与能力声明,适合与 AI 助手进行对话式、可扩展的上下文服务交互。
一个基于 Model Context Protocol 的 MCP 服务器实现,使用标准的 JSON-RPC over STDIO 与 MCP 客户端通信,能够托管和管理资源、注册并执行工具、定义并渲染 Prompt,并为 LLM 客户端提供上下文服务和功能调用能力。