返回首页

"Claude Code 集成" 标签

17 个结果

标签搜索结果

AI与计算

GZOO Cortex MCP 服务器

基于 Model Context Protocol 的后端实现,提供对知识图谱资源、工具与提示模板的托管与查询,通过 JSON-RPC(以 STDIO 传输)与 LLM 客户端进行交互,支持本地与云端推理的调度与安全控制。

AI与计算

Klaus MCP 服务器(Claude Code 集成,Kubernetes 版本)

基于 Model Context Protocol (MCP) 的后端服务器实现,封装 Claude Code CLI,提供资源、工具、提示模板等上下文服务,并通过流式 HTTP MCP 端点在 Kubernetes 中与 LLM 客户端进行交互,支持可选的 OAuth 认证与多传输通道。

AI与计算

HappyClaw MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,嵌入 HappyClaw 的 Claude Code 运行时,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等 MCP 核心能力,支持多用户工作区、流式推理与多渠道交互。

AI与计算

Tiburcio MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源、工具和提示模板等上下文能力,采用 JSON-RPC 与客户端通信,支持多种传输方式(stdio、HTTP/SSE 等),并实现了 10 个 MCP 工具以便 Claude Code 进行高效、上下文化的回答与操作。

AI与计算

Marionette MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示的托管与管理,通过 JSON-RPC 与 LLM 客户端通信;整合 Claude Code、WebSocket 通信、实时会话监控与 API 代理等组件,实现可扩展的上下文服务框架。

开发者工具

Clauder MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,为 Claude Code 提供跨实例协作、持久记忆与上下文管理等能力。通过 JSON-RPC 与客户端通信,支持资源管理、工具注册与调用、提示模板渲染等核心功能,同时具备多实例管理、会话上下文与本地搜索索引等特性。

AI与计算

Astro MCP 服务器实现

基于模型上下文协议(Model Context Protocol,MCP)的后端服务器实现,提供资源与工具管理、提示模板渲染,以及与 Claude Code/其他客户端的 JSON-RPC 通信,支持会话管理、跨传输协议的上下文服务。

AI与计算

flompt MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,提供对话式上下文管理、资源/工具的注册与执行,以及提示模板的渲染与输出,面向 Claude Code 等 MCP 客户端以 JSON-RPC 风格进行资源访问、工具调用和提示生成。

AI与计算

Clackbot MCP 服务器平台

在本地运行的 MCP 服务器集合,基于 Model Context Protocol (MCP) 提供标准化的资源、工具与提示模板上下文服务,并通过集成的 JSON-RPC/多传输支持与客户端通信,支持插件扩展与多工具链的协同工作。

网页与API

feedgrab MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,将多平台内容抓取能力通过 MCP 工具对外暴露,支持读取资源、注册与执行工具、以及与客户端进行 JSON-RPC 交互的上下文服务。

开发者工具

Fray MCP 服务器

基于 Fray 的 MCP(Model Context Protocol)实现的后端服务器,将 payload 数据、WAF 指纹和 CVE 细节以工具形式暴露给 AI 助手调用,支持通过 JSON-RPC 与客户端通信,提供工具注册、资源管理和会话上下文能力,便于在 AI 工作流中进行上下文驱动的安全测试与结果分析。

AI与计算

Codes MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端提供资源管理、工具注册与执行、以及 Prompt 模板渲染等上下文服务,并通过 JSON-RPC 与客户端通信,支持 Claude Code 的多主体协作与扩展能力。

AI与计算

Climi MCP 服务端(Kimi 集成)

基于模型上下文协议(MCP)的后端服务器,用于向 LLM 客户端暴露资源、工具和模板等上下文信息,并通过多传输协议与客户端通信,专为 Claude Code 的 Kimi 集成场景提供可扩展的上下文服务。

AI与计算

SAME MCP 服务端

基于模型上下文协议(MCP)的后端服务器实现,提供对知识 vault 的资源管理、工具调用与提示模板渲染等能力,通过 JSON-RPC 方式与 LLM 客户端交互,支持标准的文本/向量检索、注释日志、手动与自动化操作等场景,并以标准的 stdio 传输启动 MCP 服务,方便与 Claude Code 等工具链对接。

AI与计算

Hive MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,用于以标准化的 JSON-RPC 方式向 LLM 客户端提供资源、工具及上下文相关功能,采用标准输入输出(STDIN/STDOUT)进行通信,便于 Claude Code 等客户端对接执行与查询。

AI与计算

Codebrain MCP 服务器

基于 Model Context Protocol (MCP) 的后端上下文服务实现,提供资源管理、工具注册与执行、以及 Prompts 渲染等能力,通过 JSON-RPC 与客户端通信,支持标准传输(如 Stdio 传输)以提供对话上下文和外部功能的统一访问。

开发者工具

Claude Code ACP 适配器

连接 Claude Code AI 与 ACP 兼容客户端的适配器,内置 MCP 服务器提供文件、终端和权限工具。