基于 Model Context Protocol (MCP) 的后端服务器,向 MCP 客户端提供 Gong 数据资源、工具执行接口以及格式化输出,通过 JSON-RPC 进行通信,支持标准的资源、工具和提示相关交互。
基于 Model Context Protocol (MCP) 的后端实现,作为 MCP 服务器向 LLM 客户端提供资源管理、工具注册/执行以及 Prompt 模板渲染的标准化上下文服务,支持 JSON-RPC 通信、会话管理,以及多传输协议(如 Stdio、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文与能力服务。
基于 Model Context Protocol 的完整 MCP 服务器实现,提供资源/工具/提示模板的管理、ACP 控制代理以及多传输支持,适配 Elixir 生态的服务端解决方案。
基于 Model Context Protocol(MCP)的服务器端实现,提供资源、工具、提示模板管理,并通过 JSON-RPC 与客户端进行上下文与功能协作,支持多传输协议用于与大语言模型客户端对接。
基于 Model Context Protocol (MCP) 的 MCP 服务器实现,作为 AutoPay Protocol 的后端服务,向大模型客户端提供上下文信息与能力:托管并管理资源(Resources)、注册与执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与客户端通信;服务器负责会话管理、能力声明,并支持多种传输协议(如 Stdio、SSE、WebSocket)以为 LLM 应用提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol(MCP)的后端实现,提供资源、工具和提示模板的管理与执行,并通过 MCP JSON-RPC 规范与语言模型客户端进行通信,支持将上下文服务、安全检测和评估功能以工具形式暴露给 LLM 代理。
BranchMind 依据 MCP(Model Context Protocol)实现的后端服务,面向 LLM 客户端提供统一的上下文资源管理、工具注册与执行,以及可渲染的 Prompt 模板,支持多种传输通道(如 Stdio、SSE、WebSocket),实现会话管理、能力声明与安全可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端以标准化方式提供上下文信息与能力。服务器托管资源、注册并执行工具、定义与渲染 Prompt 模板;通过 JSON-RPC 进行通信,支持会话管理、能力声明,并可通过多种传输途径如标准输入输出、SSE、WebSocket 等与客户端协作,构建安全、可扩展的代码上下文服务框架。
基于 Model Context Protocol(MCP)的后端实现。提供对资源的管理、工具的注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与 SSE 与客户端通信,支持记录与回放等 MCP 服务能力,具备代理、捕获、回放、观测和安全测试等完整特性。