基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具暴露与提示模板渲染等核心能力,通过 JSON-RPC 与 AI 客户端通信,支持多传输模式,具备会话管理与能力协商能力。
基于模型上下文协议(Model Context Protocol,MCP)的后端服务,标准化向外部LLM客户端提供资源、工具与提示模板的访问和执行能力,并通过JSON-RPC进行通信,支持多种传输方式以实现安全、可扩展的上下文服务。
基于 Model Context Protocol 的 MCP 服务器实现,集成资源、工具、提示模板等能力,提供标准化的上下文服务以供 LLM 客户端调用,并通过 Stdio 传输支持快速本地测试与集成。
基于 Model Context Protocol (MCP) 的后端服务,作为 LLM 客户端的上下文服务提供者,负责资源与工具的托管管理、Prompt 模板的定义与渲染,以及与 MCP 客户端通过 JSON-RPC 协议进行通信。该实现包含身份鉴权、会话管理、快照与导入流程、以及对工具的注册与执行能力,支持多种传输与扩展能力,定位为 Agentier IDE 等环境中的后端上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器,将 Things Cloud 的数据与功能暴露给大模型/LLM 客户端,通过 JSON-RPC 提供资源管理、工具执行与模板渲染等能力,支持多用户、OAuth2.1 授权、流式传输等扩展特性,方便在云端对 Things 3 进行任务与信息管理。
基于 Fray 的 MCP(Model Context Protocol)实现的后端服务器,将 payload 数据、WAF 指纹和 CVE 细节以工具形式暴露给 AI 助手调用,支持通过 JSON-RPC 与客户端通信,提供工具注册、资源管理和会话上下文能力,便于在 AI 工作流中进行上下文驱动的安全测试与结果分析。
基于 MCP 协议的后端服务,暴露 Clippy 的资源、工具和提示给 AI 客户端,通过 JSON-RPC 进行通信,支持文本与文件等上下文共享。
基于 Model Context Protocol 的 MCP 服务端实现,提供对 HDL/SystemVerilog 相关资源、工具调用以及提示模板的标准化访问,并通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)的渲染等能力,允许通过 JSON-RPC 与 LLM 客户端进行标准化交互,支持多传输协议(如流式 HTTP、StdIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。仓库内包含基于 Python 的 FastAPI 实现(以及可选的 Node.js 实现结构),实现完整的 MCP 服务端功能与实际数据源集成。
基于 Model Context Protocol 的 MCP 服务器实现,整合插件注册、工具执行、资源管理与提示模板,通过 JSON-RPC 与浏览器客户端通信,支持 WebSocket 与 HTTP 传输,为 LLM 提供统一的上下文、工具调用和提示渲染能力,方便在开发环境中扩展自动化工具和上下文服务。
基于 Model Context Protocol (MCP) 的后端服务端实现,面向大模型客户端提供 Rancher 多集群管理的资源访问、工具执行与提示模板渲染,通过 JSON-RPC 与客户端通信,支持 stdio、HTTP/SSE 等传输模式,提供可扩展的上下文和能力服务。
基于 Model Context Protocol 的 MCP 服务器,提供对 Android 设备的自动化控制工具、资源和提示模板的标准化对接,支持 STDIO/HTTP 传输与 JSON-RPC 通信,便于与 LLM 客户端集成。
基于 Model Context Protocol 的本地 MCP 服务器实现,提供对 Planet API 的上下文访问、工具调用与提示渲染能力,帮助大语言模型在本地环境中高效地与 Planet 数据和功能交互。
一个基于 Charm KV 存储的 MCP 服务器实现,提供资源、工具、和提示模板等功能,供对话式 AI 客户端通过 JSON-RPC 与后台进行上下文交互与操作执行。当前实现通过标准输入输出(stdio)传输进行 JSON-RPC 的通信。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持多传输模式(如标准输入输出)。该服务器用于为 Playwright + Cucumber + TestNG 等测试框架提供统一的上下文服务和智能代码生成功能。
提供数据库 schema 信息和功能给 AI 客户端,支持 AI 调用 SchemaCrawler 工具进行数据库探索和分析。
将 Apple Notes 和 Things 3 集成到大语言模型客户端的 MCP 服务器。
通过 Model Context Protocol (MCP) 连接 AI 客户端与 DigitalOcean 资源,实现智能化的云管理。
通过 MCP 协议,为 AI 助手提供访问和管理 Google 日历、Gmail 和 Drive 的能力。
通过MCP协议向AI/LLM提供访问Azure Boards和Pipelines的功能。
将 Smartlead API 功能以 Model Context Protocol (MCP) 标准暴露给 AI 助手和自动化工具。