基于 Model Context Protocol 的后端服务,提供对 Turbo EA 数据的只读访问、资源与工具注册与执行,以及 Prompt 模板定义与渲染,供大语言模型以标准化的 JSON-RPC 方式查询和调用。该仓库实现了一个可运行的 MCP 服务器,包含 OAuth/SSO 集成、REST 风格资源与工具的实现,以及用于 AI 客户端的 Prompts 定义与渲染能力,支持本地测试(stdio 模式)与容器化部署。
基于 Model Context Protocol (MCP) 的服务器实现,向大语言模型客户端提供标准化的上下文服务与能力,包括资源管理、工具注册/执行以及提示模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 HTTP/HTTPS、stdio),具备会话管理、能力声明与可扩展的后端架构。
一个面向 LLM 应用的多提供商聚合与 MCP 网关实现,提供资源管理、工具注册与执行,以及可渲染的 Prompt 模板,便于通过标准化的 MCP 协议向客户端提供上下文信息和外部功能。通过支持 SSE、HTTP、STDIO 等传输,实现对外部 MCP 服务器的聚合与暴露统一端点的能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具和提示(Prompts)的注册、管理与执行,通过 JSON-RPC 与 MCP 客户端通信,支持多传输通道(如标准输入输出)以为大语言模型客户端提供可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的服务器端实现,作为后端上下文服务提供者,统一托管资源(Resources)、注册与执行 Tools、以及渲染 Prompt 模板;通过 JSON-RPC 与客户端进行通信,支持多传输模式(如 Stdio、SSE、WebSocket),实现会话管理和能力声明,帮助 LLM 客户端以标准化方式获取上下文、外部功能和提示模板。
基于模型上下文协议(MCP)的后端服务,向 MCP 客户端提供资源、工具注册/执行以及提示模板渲染等上下文服务,通过 JSON-RPC 与客户端通信,支持会话管理和多种传输模式以支撑 LLM 应用的安全上下文服务。
基于 Model Context Protocol (MCP) 的后端服务,按标准化方式向 LLM 客户端提供资源、工具与 Prompt 模板,并通过 JSON-RPC 进行通信,支持多传输协议与会话管理,适用于以上下文驱动的 AI 应用场景。
基于 Model Context Protocol (MCP) 的后端实现,为 LLM 客户端提供标准化的资源、工具与提示的暴露和管理,并通过 JSON-RPC 进行远程调用与会话管理,具备可扩展的插件式架构与本地化推理上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板定义与渲染,并通过 JSON-RPC 与客户端通信的后端服务,支持多传输通道(如标准输入输出、服务器发送事件、WebSocket),具备会话管理、能力声明与策略执行能力,便于向大语言模型客户端提供标准化的上下文信息和外部功能。
基于 Model Context Protocol (MCP) 的后端服务器实现,作为 MCP 客户端的上下文与能力提供者,托管资源、注册并执行工具、定义与渲染 Prompts,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议(如 stdio、HTTP、WebSocket)等能力,附带可审计的合规证据与安全保障。该实现定位为 MCP 服务器端架构,适合将 LLM 客户端接入到受控的工具与资源生态中。
基于 MCP 架构的后端服务器,向 LLM 客户端标准化提供资源、工具和提示(Prompts)等上下文与能力,通过 JSON-RPC 进行请求/响应,并支持多传输协议(如 Stdio/SSE/WebSocket)与会话管理,用于构建安全、可拓展的 AI 应用后台。
基于 Model Context Protocol (MCP) 的后端服务实现,向大语言模型客户端提供资源管理、工具注册与执行,以及提示模板渲染等上下文服务,采用 JSON-RPC 风格接口进行通信,支持在本地 SQLite 存储中管理会话、记忆、工具输出等上下文信息。该仓库内含完整的 MCP 服务器实现及相关组件,可作为可运行的 MCP 服务端使用。
基于 Model Context Protocol (MCP) 的后端实现,提供资源与工具管理、Prompt 注册,以及通过 JSON-RPC 进行与 LLM 客户端的安全对话,支持 stdio 与 HTTP 两种传输模式,适配 Copilot 等对 MCP 的场景需求。
基于 Model Context Protocol (MCP) 的后端服务器实现,向 MCP 客户端提供 consulta_llm 工具、资源上下文和提示模板,支持 JSON-RPC 请求/响应,当前实现通过 STDIO 传输进行通信,具备资源管理、工具注册与执行、以及提示渲染等核心能力。
基于 Model Context Protocol 的后端服务器实现,向大型语言模型客户端提供 Google Workspace 的资源、工具和 Prompt 模板,支持多服务整合、认证管理与可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行,以及 Prompt 模板渲染等能力,通过 JSON-RPC 与 LLM 客户端进行规范化交互,支持多种传输与会话管理,作为 LLM 应用的上下文与功能后端。
基于模型上下文协议(MCP)的后端实现,用于向 LLM 客户端提供资源管理、工具注册/执行以及 Prompt 模板渲染等能力,并通过 JSON-RPC/WebSocket 等传输协议进行通信。本仓库包含完整的服务端实现、工具暴露、Prompts 加载与渲染、会话管理以及安全策略,能够作为可运行的 MCP 服务器端提供上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的注册/管理、Prompt 的定义与渲染,以及会话管理与协议能力声明,支持通过标准输入输出或流式 HTTP 等传输协议与客户端进行 JSON-RPC 通信,用于为大型语言模型(LLM)提供上下文信息与外部功能访问能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染等能力,并通过 JSON-RPC 风格接口向 LLM 客户端暴露上下文与功能。服务器支持多种传输形式(HTTP)、会话管理、能力声明,以及可拓展的工具与资源生态,提升大模型在编码协作中的上下文服务能力。
基于 Model Context Protocol 的后端服务,向大语言模型客户端提供圣经经文、原文字词、注释及文章等资源的标准化访问与上下文服务,通过 JSON-RPC 进行通信,支持多传输模式、会话管理与能力声明。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)渲染,支持 stdio、Web 服务等传输协议,通过 JSON-RPC 与 MCP 客户端通信,向大模型客户端提供上下文、数据访问、外部功能调用等能力。
基于 Model Context Protocol 构建的 MCP 服务器实现集合,提供资源与工具的托管、Prompt 定义及渲染能力,并通过 JSON-RPC 与客户端通信,支持多入口输出、浏览器扩展场景,以及跨进程/跨页面的上下文服务能力。
基于 Model Context Protocol (MCP) 的后端运行时与代理,提供资源、工具和提示的统一管理,并通过 JSON-RPC 与 MCP 客户端通信,支持多传输协议(stdio、SSE、WebSocket)等,能够在沙箱中运行并托管任意 MCP 兼容的服务器。*