基于 Model Context Protocol 的 MCP 服务器端实现,提供对内存/资源的暴露、工具注册与执行,以及与客户端的 JSON-RPC 交互能力,支持通过不同传输协议与 LLM 客户端通信以提供上下文服务和记忆能力。
基于 Model Context Protocol(MCP)的后端实现,向被训练的大型语言模型(LLM)客户端提供标准化的上下文资源、主机工具以及提示模板的访问与执行能力。该仓库实现了一个主机端 MCP 服务,暴露了 git 信息、读取密钥、GitHub API 调用以及主机端审批等工具,并通过嵌入式运行时实现了端到端的 MCP 服务能力,支持多通道接入(如 Discord、CLI),并有内存/日志等辅助能力,符合 MCP 服务器的核心职责:资源、工具、Prompt 的管理与渲染,以及 JSON-RPC 形式的请求/响应通信。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具暴露与提示模板渲染等核心能力,通过 JSON-RPC 与 AI 客户端通信,支持多传输模式,具备会话管理与能力协商能力。
基于 AI-ATLAS 的后端服务器实现,通过生成的 MCP 工具和 OpenAPI 规范,向大语言模型客户端提供资源、工具和提示模板等上下文服务,支持基于 SSE 的传输与 JSON-RPC 风格的协作能力。
基于 Model Context Protocol (MCP) 的后端实现,为 LLM 客户端提供标准化的资源、工具与提示的暴露和管理,并通过 JSON-RPC 进行远程调用与会话管理,具备可扩展的插件式架构与本地化推理上下文服务。
基于 Model Context Protocol(MCP)的后端实现,提供 Google Workspace API 的工具集并通过 JSON-RPC 以标准化方式与 MCP 客户端通信,支持工具注册、执行调用、会话管理与多种传输场景(如 STDIO)。
基于 Model Context Protocol (MCP) 的服务器实现,提供资源与工具暴露、提示模板渲染等能力,并通过 STDIO 进行 JSON-RPC 风格的通信,方便 LLM 客户端以统一方式读取资源、调用工具、获取提示模板等上下文信息。
基于 Fray 的 MCP(Model Context Protocol)实现的后端服务器,将 payload 数据、WAF 指纹和 CVE 细节以工具形式暴露给 AI 助手调用,支持通过 JSON-RPC 与客户端通信,提供工具注册、资源管理和会话上下文能力,便于在 AI 工作流中进行上下文驱动的安全测试与结果分析。
基于 Spring Boot 的 MCP(模型上下文协议)服务器实现示例,提供工具暴露、资源管理与 prompts 渲染等核心能力,支持通过 SSE 进行 JSON-RPC 通信,作为 LLM 客户端的上下文与功能后端。包含 Kotlin 与 Java 两种实现以及可直接运行的服务器启动脚本,适配 Claude Desktop 等 MCP 客户端进行集成测试与演示。
基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 方式暴露资源管理、工具执行以及提示模板的能力,核心通过 registerTool 将大量 Google Workspace 相关操作暴露为可调用的工具集,支持以 Stdio 传输等多种通信方式进行上下文服务与会话管理。
基于 Model Context Protocol (MCP) 的.NET 实现,提供 Tools、Prompts、Resources 的注册与执行,并通过 SignalR 进行与 MCP 客户端的双向通信,支持多传输模式(stdio、http),实现会话管理、能力声明和扩展的 JSON 序列化配置,适合作为本地应用的 MCP 服务器桥接层。