基于 Model Context Protocol (MCP) 的后端服务器,作为 LLM 客户端的上下文服务提供资源管理、工具注册/执行、以及 Prompt 模板的渲染与管理,并通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 等传输协议,具备会话管理、能力声明与安全访问控制等特性。
基于 Model Context Protocol 的后端服务器,面向 Code Ocean 平台,向大语言模型客户端提供 Capsule、数据资产、计算等资源的访问、工具执行以及提示模板渲染,并通过 JSON-RPC 形式暴露能力。
基于 Model Context Protocol (MCP) 的后端实现,提供资源、工具、提示模板等上下文服务,通过 JSON-RPC 与大语言模型客户端交互,整合 Qualys 安全数据并支持模块化扩展。
基于 Model Context Protocol (MCP) 的后端服务器,提供对 Microsoft Access 数据库的资源管理、工具注册与执行以及提示模板渲染等能力,供大语言模型客户端通过 JSON-RPC 调用以获取上下文和功能支持。
基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端以标准化方式提供股票量价分析所需的数据、工具和提示模板,支持数据读取、工具执行、以及可渲染的提示模板,采用 JSON-RPC 通过 STDIO 等传输方式与客户端交互。
面向大语言模型的后端MCP服务器,实现通过JSON-RPC向LLM客户端提供资源、工具和Prompt相关的上下文服务,支持跨GitHub、Jira、Confluence的数据获取与操作,以及会话管理与多传输协议接入的能力。
基于 Model Context Protocol (MCP) 的服务器实现,提供通过 JSON-RPC 向 LLM 客户端暴露工具注册、执行与上下文交互的能力,适配本地开发与容器化部署场景。
作为Chat Bridge项目的后端组件,该服务通过JSON-RPC协议向LLM客户端提供标准化的对话历史查询、上下文记忆管理和工具集成功能。
为Home Assistant提供AI辅助开发环境,通过MCP协议实现LLM对智能家居设备的上下文访问和控制。
基于.NET 9 ASP.NET Core实现的MCP服务器,支持API密钥/JWT认证、工具自动发现和OpenAPI。
连接 Claude Code AI 与 ACP 兼容客户端的适配器,内置 MCP 服务器提供文件、终端和权限工具。
一个高性能的自主网关服务,通过SSE流和MCP协议将Web应用与Conductor智能体执行系统连接。
高性能Go HTTP服务框架,内置MCP协议支持,为LLM应用提供上下文管理、工具调用和Prompt服务。
一个基于Model Context Protocol (MCP) 的安全增强型后端服务器,通过结合mTLS和Biscuit令牌,为LLM应用提供多层加密授权的上下文服务。
为LLM客户端提供Claude Code令牌使用量和成本分析服务,通过MCP协议暴露数据访问工具。
该服务器作为LLM与Observe可观测性平台之间的安全桥梁,通过MCP协议提供Observe API功能、OPAL查询辅助和故障排除手册访问。
一个用Haskell语言实现的Model Context Protocol (MCP) 服务器框架。
基于 Azure Functions 的 MCP 服务器快速启动模板,帮助开发者轻松构建和部署云端 LLM 上下文服务。
基于GPT Researcher和Open WebUI构建的MCP服务器,为LLM应用提供研究和信息检索的上下文服务。
Model Context Protocol (MCP) Python SDK 提供了一套全面的工具,用于构建兼容 MCP 协议的服务器和客户端应用,简化 LLM 应用的上下文管理。
一个轻量级的本地MCP服务器实现,通过WebSocket和JSON-RPC协议,为LLM客户端提供文本处理和聊天能力。
该项目是基于FastAPI和MCP的Python MCP服务器实现,旨在为LLM客户端提供标准化的上下文交互能力,包括资源管理、工具注册和Prompt模板支持。
该Ruby库提供了一个实验性的Model Context Protocol (MCP) 服务器实现,允许开发者使用Ruby构建兼容MCP协议的后端服务。