基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端提供统一的资源数据、工具调用、以及可渲染的 Prompt 模板等上下文服务,通过 JSON-RPC 进行通信,支持会话管理、能力声明与多传输协议接入。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行,以及可渲染的提示模板,按标准 JSON-RPC 方式与客户端通信,为 LLM 客户端提供统一的上下文数据与外部功能入口。
基于模型上下文协定(MCP)的后端服务器实现,提供资源管理、工具注册/执行、以及提示模板渲染等核心能力,并通过 JSON-RPC/SSE 提供给 LLM 客户端使用的上下文服务与功能调用入口,同时包含 REST API、权限与计费等完整实现。
基于 Model Context Protocol (MCP) 的后端服务,提供工具注册、资源管理,并通过 JSON-RPC 与 LLM 客户端通信,支持通过 HTTP 转 Transport 的无状态 MCP 请求处理,端点位于 /mcp。
基于 Model Context Protocol(MCP)实现的后端服务器,提供资源托管、工具注册与执行、以及可定制的 Prompt 模板渲染。通过 JSON-RPC 形式与 LLM 客户端通信,支持多传输方式(HTTP、STDIO 等),并提供会话管理、能力声明、访问控制与审计追踪等完整后端能力。仓库内不仅包含完整的 MCP 服务端实现,还实现了与 Claude/Cursor/Windsurf 等 MCP 客户端的对接支持。
基于 Model Context Protocol 的 Sigil MCP 服务器实现,提供资源与工具托管、Prompt 模板管理,以及通过 JSON-RPC 方式与 LLM 客户端进行上下文和功能交互,支持向外暴露工具查询、调用与渲染能力。
基于 Model Context Protocol(MCP)的后端服务,提供资源、工具与提示模板的标准化访问,用于让 AI/LLM 客户端以结构化上下文与能力与本地系统进行交互,并通过 JSON-RPC 等传输协议与客户端沟通。
基于 Model Context Protocol 的 MCP 服务器实现,能够加载 MF 配置、注册工具、管理远程资源、渲染 MF 应用并通过 MCP 协议与客户端通信,提供多传输协议支持与安全的上下文服务框架。
基于 Model Context Protocol 的后端服务,向大语言模型(LLM)客户端提供 Currents 的测试与持续集成(CI)数据的资源、工具和提示模板,并通过 JSON-RPC 进行交互,以实现上下文信息托管、工具调用以及定制的对话模板渲染。
基于 Model Context Protocol 的后端服务器,提供统一的资源管理、工具注册与执行、提示模板渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多种传输方式(如 Stdio、SSE、WebSocket)。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染等上下文服务,能够通过 JSON-RPC 与 LLM 客户端进行资源读取、工具调用与模板获取等交互,并支持多种传输协议以实现安全、可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,通过 JSON-RPC 与 客户端通信,支持多种传输通道,面向让大语言模型客户端高效获取上下文、能力和工具的后端服务。
基于 Model Context Protocol 的后端 MCP 服务器实现,作为后端上下文服务提供商,向 LLM 客户端以标准化的 JSON-RPC 调用提供资源、工具与提示模板等能力,并通过 MCP 协议进行请求处理与响应返回。该仓库内实现了服务器端工具注册、请求分发以及对 Supabase 等后端的数据访问逻辑,可用于对接外部大模型应用场景。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具和提示模板的注册、路由与 JSON-RPC 响应,作为 Elixir 应用的后端服务,与 Claude Code CLI 控制协议配合使用(支持 in-process 服务器模式)。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的托管与管理,支持 JSON-RPC 客户端交互,并具备会话管理与多传输协议扩展能力,适用于向 LLM 客户端提供可访问的数据、外部功能与定制化提示。