基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端提供统一的资源数据、工具调用、以及可渲染的 Prompt 模板等上下文服务,通过 JSON-RPC 进行通信,支持会话管理、能力声明与多传输协议接入。
基于 Model Context Protocol (MCP) 的后端实现,作为 MCP 服务器向 LLM 客户端提供资源管理、工具注册/执行以及 Prompt 模板渲染的标准化上下文服务,支持 JSON-RPC 通信、会话管理,以及多传输协议(如 Stdio、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文与能力服务。
基于 Model Context Protocol 的完整 MCP 服务器实现,提供资源/工具/提示模板的管理、ACP 控制代理以及多传输支持,适配 Elixir 生态的服务端解决方案。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行,以及可渲染的提示模板,按标准 JSON-RPC 方式与客户端通信,为 LLM 客户端提供统一的上下文数据与外部功能入口。
基于模型上下文协定(MCP)的后端服务器实现,提供资源管理、工具注册/执行、以及提示模板渲染等核心能力,并通过 JSON-RPC/SSE 提供给 LLM 客户端使用的上下文服务与功能调用入口,同时包含 REST API、权限与计费等完整实现。
基于 Model Context Protocol(MCP)的后端服务器实现,向大语言模型客户端提供规范化的上下文服务,包括资源管理、工具注册与执行,以及可定制的提示模板渲染;通过 JSON-RPC 进行通信,支持多种传输模式(如 stdio、HTTP/Streamable HTTP),并实现会话管理与能力声明,适用于在本地搭建的 MCP 服务端场景。
基于 Model Context Protocol (MCP) 的 MCP 服务器实现,作为 AutoPay Protocol 的后端服务,向大模型客户端提供上下文信息与能力:托管并管理资源(Resources)、注册与执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与客户端通信;服务器负责会话管理、能力声明,并支持多种传输协议(如 Stdio、SSE、WebSocket)以为 LLM 应用提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol(MCP)的后端服务,提供资源、工具与提示模板的标准化访问,用于让 AI/LLM 客户端以结构化上下文与能力与本地系统进行交互,并通过 JSON-RPC 等传输协议与客户端沟通。
基于 Model Context Protocol 的后端服务器,向 MCP 客户端暴露工具、资源与提示模板,支持执行子代理、资源读取与会话管理,提供安全、可扩展的上下文服务。
基于 Model Context Protocol 的后端服务器,提供统一的资源管理、工具注册与执行、提示模板渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多种传输方式(如 Stdio、SSE、WebSocket)。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,通过 JSON-RPC 与 客户端通信,支持多种传输通道,面向让大语言模型客户端高效获取上下文、能力和工具的后端服务。
基于 Crackerjack 的 MCP(Model Context Protocol)服务器实现,提供资源托管与管理、工具注册与执行、以及可渲染的 Prompt 模板等核心能力,通过 JSON-RPC 与客户端通信,并支持多种传输方式(如 WebSocket、StdIO、SSE),为 LLM 客户端提供安全、可扩展的上下文服务框架。