基于 Model Context Protocol (MCP) 的服务器实现,向大语言模型客户端提供标准化的上下文服务与能力,包括资源管理、工具注册/执行以及提示模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 HTTP/HTTPS、stdio),具备会话管理、能力声明与可扩展的后端架构。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册/执行、以及可渲染的 Prompt 模板等能力,并通过 JSON-RPC 在多种传输通道(stdio、SSE、HTTP、WebSocket)与客户端进行通信,支持会话管理、热更新和工具缓存等特性。
基于 Model Context Protocol(MCP)的后端服务,提供资源托管与访问、工具注册与执行、以及可定制的 Prompt 模板渲染,统一通过 JSON-RPC 与客户端交互,并支持多种传输方式(HTTP/SSE/stdio)以实现对大语言模型客户端的上下文与功能服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,负责以标准化方式向 LLM 客户端提供上下文信息与功能,包括资源管理、工具注册/执行以及提示模板的定义与渲染;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输协议(如标准输入输出、SSE、WebSocket)实现轻量级、高扩展性的上下文服务。
基于 Model Context Protocol (MCP) 的服务器端实现,作为后端上下文服务提供者,统一托管资源(Resources)、注册与执行 Tools、以及渲染 Prompt 模板;通过 JSON-RPC 与客户端进行通信,支持多传输模式(如 Stdio、SSE、WebSocket),实现会话管理和能力声明,帮助 LLM 客户端以标准化方式获取上下文、外部功能和提示模板。
基于 Model Context Protocol 的 MCP 服务器实现,作为后端为大语言模型客户端提供标准化的上下文信息、资源数据、工具执行能力以及自定义提示模板等功能,支持 JSON-RPC 通信、会话管理和多种传输协议。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具、 Prompts 的标准化管理与查询,并通过 JSON-RPC 与 MCP 客户端进行交互,支持多传输通道(如标准输入/输出、WebSocket、SSE),为 AI 代理提供上下文、数据访问和外部功能调用能力。
Crust 是一个本地的 Model Context Protocol 网关后端,通过 JSON-RPC 与 MCP 客户端通信,提供资源、工具、提示模板等上下文服务,并在网关层实现安全规则拦截,支持多传输协议(如 Stdio、SSE、WebSocket)的接入与扩展。
一个面向大语言模型客户端的后端网关框架,能够聚合、管理多组服务器、工具、资源,并通过标准化的 JSON-RPC 通信向客户端提供上下文和外部功能。支持多种传输方式(如 HTTP、stdio、SSE),并包含资源/工具/提示的注册、渲染、执行及对话上下文管理能力。
基于 Model Context Protocol 的 MCP 服务器端实现,提供 PatternFly 的资源、工具与文档的统一上下文服务,支持多传输协议(STDIO、HTTP/WebSocket 等)、会话管理与能力声明,水平扩展以供 LLM 客户端获取资源、执行工具和渲染 Prompt 模板等上下文信息。