基于 Model Context Protocol (MCP) 的后端服务器实现,封装 Claude Code CLI,提供资源、工具、提示模板等上下文服务,并通过流式 HTTP MCP 端点在 Kubernetes 中与 LLM 客户端进行交互,支持可选的 OAuth 认证与多传输通道。
基于 Model Context Protocol 的 MCP 服务器实现,嵌入 HappyClaw 的 Claude Code 运行时,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等 MCP 核心能力,支持多用户工作区、流式推理与多渠道交互。
基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具和提示模板等上下文能力,采用 JSON-RPC 与客户端通信,支持多种传输方式(stdio、HTTP/SSE 等),并实现了 10 个 MCP 工具以便 Claude Code 进行高效、上下文化的回答与操作。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示的托管与管理,通过 JSON-RPC 与 LLM 客户端通信;整合 Claude Code、WebSocket 通信、实时会话监控与 API 代理等组件,实现可扩展的上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现,为 Claude Code 提供跨实例协作、持久记忆与上下文管理等能力。通过 JSON-RPC 与客户端通信,支持资源管理、工具注册与调用、提示模板渲染等核心功能,同时具备多实例管理、会话上下文与本地搜索索引等特性。
基于 Model Context Protocol (MCP) 的后端服务器,提供对话式上下文管理、资源/工具的注册与执行,以及提示模板的渲染与输出,面向 Claude Code 等 MCP 客户端以 JSON-RPC 风格进行资源访问、工具调用和提示生成。
在本地运行的 MCP 服务器集合,基于 Model Context Protocol (MCP) 提供标准化的资源、工具与提示模板上下文服务,并通过集成的 JSON-RPC/多传输支持与客户端通信,支持插件扩展与多工具链的协同工作。
基于 Model Context Protocol (MCP) 的后端服务器,将多平台内容抓取能力通过 MCP 工具对外暴露,支持读取资源、注册与执行工具、以及与客户端进行 JSON-RPC 交互的上下文服务。
基于 Fray 的 MCP(Model Context Protocol)实现的后端服务器,将 payload 数据、WAF 指纹和 CVE 细节以工具形式暴露给 AI 助手调用,支持通过 JSON-RPC 与客户端通信,提供工具注册、资源管理和会话上下文能力,便于在 AI 工作流中进行上下文驱动的安全测试与结果分析。
基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端提供资源管理、工具注册与执行、以及 Prompt 模板渲染等上下文服务,并通过 JSON-RPC 与客户端通信,支持 Claude Code 的多主体协作与扩展能力。
基于模型上下文协议(MCP)的后端服务器,用于向 LLM 客户端暴露资源、工具和模板等上下文信息,并通过多传输协议与客户端通信,专为 Claude Code 的 Kimi 集成场景提供可扩展的上下文服务。
基于模型上下文协议(MCP)的后端服务器实现,提供对知识 vault 的资源管理、工具调用与提示模板渲染等能力,通过 JSON-RPC 方式与 LLM 客户端交互,支持标准的文本/向量检索、注释日志、手动与自动化操作等场景,并以标准的 stdio 传输启动 MCP 服务,方便与 Claude Code 等工具链对接。
基于 Model Context Protocol 的 MCP 服务器实现,用于以标准化的 JSON-RPC 方式向 LLM 客户端提供资源、工具及上下文相关功能,采用标准输入输出(STDIN/STDOUT)进行通信,便于 Claude Code 等客户端对接执行与查询。
基于 Model Context Protocol (MCP) 的后端上下文服务实现,提供资源管理、工具注册与执行、以及 Prompts 渲染等能力,通过 JSON-RPC 与客户端通信,支持标准传输(如 Stdio 传输)以提供对话上下文和外部功能的统一访问。
连接 Claude Code AI 与 ACP 兼容客户端的适配器,内置 MCP 服务器提供文件、终端和权限工具。