基于 Model Context Protocol(MCP)的后端服务,向 LLM 客户端提供标准化的上下文信息和功能。通过 JSON-RPC(以 STDIO 传输为主)与客户端通信,支持托管资源、注册和执行工具、以及定义/渲染 Prompt 模板,并结合 OpenTelemetry 实现可观测性与可扩展性。
基于 Model Context Protocol (MCP) 的后端知识图谱服务器实现,提供将资源、工具和提示模板以 MCP JSON-RPC 方式暴露给 Claude Desktop 等 MCP 客户端,并支持同步/异步工具执行、管理员模式下的危险工具控制、以及跨传输协议的上下文服务能力。
基于 Model Context Protocol(MCP)的企业级 MCP 服务器实现,提供网络诊断与知识检索等工具的服务端能力,并与图谱编排、工具网关、审计日志等模块协同工作,支持多服务器架构和标准化的 JSON-RPC 交互。
基于 Spring Boot 和 MCP 构建的事件推荐聊天机器人后端,提供资源访问、工具注册和 Prompt 模板渲染等 MCP 核心功能。