基于 Model Context Protocol(MCP)的后端服务器,向大语言模型客户端以标准化方式提供赛题资源、工具执行和提示模板等上下文服务,支持多种传输方式并可通过本地/远程 mock 平台进行测试。
基于 Model Context Protocol (MCP) 的后端服务器实现,暴露 Zendesk 的资源、操作与查询为可由 AI 客户端调用的工具集合,支持通过标准 MCP 传输(如标准输入输出)与客户端进行 JSON-RPC 通信,提供会话管理和可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的 MCP 服务器实现,将 Helix、AzDO 等 API 封装为结构化的 MCP Tool,提供资源与工具管理、跨进程缓存、以及面向 LLM 的上下文服务,支持 stdio 和 HTTP 传输等传输协议。
基于 Model Context Protocol (MCP) 的 Tekla Structures 服务端实现,提供标准化的上下文信息、工具执行与模板渲染等能力,通过 JSON-RPC 与客户端通信,供大模型/LLM 客户端获取 Tekla 模型的上下文数据、执行外部功能及渲染提示模板。
基于 Model Context Protocol (MCP) 的 JSON-RPC 2.0 服务器实现,提供资源管理、工具调用与上下文提示渲染,作为 Claude Code 等客户端的后端上下文服务,采用标准输入输出传输进行通信。
基于模型上下文协议(Model Context Protocol,MCP)的后端服务,标准化向外部LLM客户端提供资源、工具与提示模板的访问和执行能力,并通过JSON-RPC进行通信,支持多种传输方式以实现安全、可扩展的上下文服务。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具和提示模板的注册、管理与执行,允许通过 JSON-RPC 与任意 LLM 客户端进行上下文信息服务与外部功能调用,并支持多种传输方式与会话能力声明。
基于 Model Context Protocol(MCP)的后端服务,为大型语言模型客户端提供可读取的资源、可执行的工具、以及可渲染的提示模板等上下文能力,通过 JSON-RPC/MCP 协议实现与客户端的交互。
基于模型上下文协议(Model Context Protocol,MCP)的后端服务实现,提供向 MCP 客户端暴露 HTTP/StreamableHTTP 传输的 MCP 接口,以及可选的 stdio 传输,支持从浏览器端抓取的组件上下文实时供 Claude Code 等 MCP 兼容代理读取,并提供多种 MCP 工具(读取元素上下文、撤销/重做、会话历史、可及性与渲染分析等)的访问入口。
基于 Model Context Protocol 的 MCP 服务器实现,为 Ditto Assistant 提供本地上下文后端,整合 Google Workspace 的资源与工具,并通过 SSE JSON-RPC 与 Ditto 客户端通讯,支持工具注册、会话管理、Bearer 认证以及本地 ngrok 隧道等能力。
基于 Model Context Protocol (MCP) 的后端服务实现,向大语言模型客户端提供资源管理、工具注册与执行,以及提示模板渲染等上下文服务,采用 JSON-RPC 风格接口进行通信,支持在本地 SQLite 存储中管理会话、记忆、工具输出等上下文信息。该仓库内含完整的 MCP 服务器实现及相关组件,可作为可运行的 MCP 服务端使用。
基于 Model Context Protocol (MCP) 的后端实现,提供资源与工具管理、Prompt 注册,以及通过 JSON-RPC 进行与 LLM 客户端的安全对话,支持 stdio 与 HTTP 两种传输模式,适配 Copilot 等对 MCP 的场景需求。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及资源快照渲染等能力,采用 JSON-RPC 与 LLM 客户端通信,支持通过标准的 stdio/SSE 传输与多种客户端集成,用于向模型提供上下文信息和外部功能调用能力。
基于 Model Context Protocol (MCP) 的服务器端实现,用于通过 JSON-RPC 提供 AMReXAgent 的资源管理、工具注册/执行以及 Prompt 模板的渲染等上下文服务,并对外提供可扩展的传输方式(如 stdio)。该仓库中实现了一个真实的 MCP 服务器入口、工具注册、请求分发与执行通道,确保客户端能以统一的协议访问后端能力。
基于 Model Context Protocol 的后端 MCP 服务器,实现资源、工具、提示模板等核心接口,使用 JSON-RPC 与客户端通信,向 LLM 客户端提供资源访问、工具调用与提示渲染能力,并支持多种传输协议(stdio、SSE、streamable-http 等)。
基于 Model Context Protocol 的服务器端实现,作为后端上下文服务向大型语言模型客户端提供资源、工具与提示模板等能力,支持多传输协议(如 STDIO、HTTP、WebSocket),通过 JSON-RPC 与客户端进行交互,包含会话管理、能力声明与工具/资源模板的注册与渲染。
基于 Model Context Protocol (MCP) 的后端上下文服务实现,提供资源管理、工具注册与执行、以及 Prompts 渲染等能力,通过 JSON-RPC 与客户端通信,支持标准传输(如 Stdio 传输)以提供对话上下文和外部功能的统一访问。
基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供 Home Assistant 的上下文资源、工具与 Prompts,通过 WebSocket/REST 等标准接口实现资源管理与工具执行等核心能力。
基于 Model Context Protocol (MCP) 的后端运行时与代理,提供资源、工具和提示的统一管理,并通过 JSON-RPC 与 MCP 客户端通信,支持多传输协议(stdio、SSE、WebSocket)等,能够在沙箱中运行并托管任意 MCP 兼容的服务器。*