基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、以及提示模板相关能力,桥接 macOS 本地容器命令行(通过 container CLI)与大语言模型客户端,支持 JSON-RPC 形式的请求/响应和多种传输方式。
基于 Model Context Protocol(MCP)的后端服务器,向大语言模型客户端以标准化方式提供赛题资源、工具执行和提示模板等上下文服务,支持多种传输方式并可通过本地/远程 mock 平台进行测试。
基于 Model Context Protocol 的 MCP 服务器实现,利用 Google Gemini API 提供图像生成与编辑能力,并对外暴露资源、工具调用与提示模板等能力,供大语言模型客户端以统一的上下文服务进行交互。
基于 Model Context Protocol(MCP)的后端服务实现,为 LLM 客户端提供标准化的上下文管理能力:托管资源和数据、注册并执行工具、定义并渲染 Prompt 模板,采用 JSON-RPC 与客户端通信,支持会话管理与多传输协议的扩展能力,为面向大语言模型的上下文服务提供安全、可扩展的服务端框架。
基于 Model Context Protocol(MCP) 的后端服务器,实现向大语言模型(LLM)客户端提供 Tweet 数据分析与博客生成功能的工具集合,支持通过标准输入输出和 HTTP SSE 两种传输方式进行 JSON-RPC 交互,具备工具注册、会话管理和多传输能力等核心能力。
基于 Model Context Protocol(MCP)的服务器实现,提供网页内容获取与转换等工具的 MCP 服务接口,允许 LLM 客户端通过 JSON-RPC 调用工具、检索工具列表并执行网页相关任务,进而得到结构化输出和元数据。该服务明确实现了 MCP 的核心请求处理路径(如 ListTools、CallTool),并提供可运行的服务端代码,作为 MCP 服务器使用。
基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端提供对 amdWiki 内容、资源、工具和提示模板的上下文化访问,并通过 JSON-RPC 进行通信与能力声明
基于 Model Context Protocol (MCP) 的服务器实现,为大语言模型(LLM)客户端提供标准化的上下文服务,包括资源管理、工具注册与执行、以及提示模板渲染等能力,通过 JSON-RPC 与客户端通信,并支持多种传输协议(如 STDIO、HTTP SSE),用于移动端自动化场景(Android 与 iOS)中的上下文信息与外部功能访问。
基于 Model Context Protocol (MCP) 的健康数据后端服务器,向大型语言模型(LLM)客户端以标准化格式提供资源访问、工具执行与提示渲染能力,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议接入,以实现对健康数据的上下文提供与功能扩展。
基于模型上下文协议 (MCP) 的服务器实现框架,用于将一组工作流暴露为可通过 MCP 客户端调用的工具,并支持在浏览器/代理端以流式 NDJSON 的方式交互、管理资源、执行工具以及渲染提示模板。该仓库提供从本地到云端的完整服务器端实现和示例。
基于 Model Context Protocol 的后端 MCP 服务器,提供资源管理、工具注册与执行以及 Prompt 模板渲染的统一上下文服务,并通过 JSON-RPC 与 LLM 客户端通信,支持在多种传输协议下工作(如 STDIO、SSE、WebSocket)。
基于 Model Context Protocol 的 MCP 服务器实现,提供对 Kubernetes Cluster API 的资源、工具和提示等上下文服务,支持多传输协议并具备自更新能力,面向把对话式 AI 与 CAPI 集群管理结合的应用场景。
Radar 内置的 Model Context Protocol (MCP) 服务器实现,提供统一的资源数据访问、工具调用与 Prompt 渲染接口,支持通过 JSON-RPC 与 LLM 客户端通信,方便 AI 助手查询集群上下文、执行外部功能、渲染对话模板等。
基于 MCP 协议的后端服务,提供对浏览器自动化能力的统一访问入口,通过 JSON-RPC 与客户端交互并将命令映射到 WebAct 的 CLI/SDK 操作,实现对资源、工具及提示模板等能力的托管与执行,适用于将浏览器自动化功能嵌入到大语言模型的工作流中。
基于 Model Context Protocol (MCP) 的后端服务,向大语言模型客户端以标准化方式提供世界魔方协会(WCA)数据的资源、工具与提示模板等上下文能力,并通过 JSON-RPC 与客户端交互实现数据读取、外部功能调用与提示渲染等功能。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具和提示模板的注册、管理与执行,允许通过 JSON-RPC 与任意 LLM 客户端进行上下文信息服务与外部功能调用,并支持多种传输方式与会话能力声明。
基于 Model Context Protocol (MCP) 构建的后端服务器,向 LLM 客户端标准化暴露资源、工具与 Prompt 模板,并通过 JSON-RPC 与客户端交互,实现知识管理、工具注册与自定义对话模板的渲染与执行。
基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具和 UI 渲染等能力,使用 JSON-RPC 通过 /mcp 与客户端通信,支持 Durable Objects、WebSocket、SSE 等传输,面向 LLM 客户端的上下文与功能服务。
基于 Model Context Protocol 的多 MCP 服务器实现,提供资源托管、工具注册与执行、以及 Prompt 模板的标准化访问;通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、能力声明和多种传输方式,适用于 EDA 及 VLSI 设计的上下文服务后端。
基于 Mark Protocol 的 MCP 服务器实现,向大型语言模型客户端以标准化方式暴露读取资源、执行工具、以及渲染提示模板等能力,并通过 JSON-RPC 进行通信。
基于 Model Context Protocol 的后端服务器,提供 DuckDuckGo 网络检索、新闻检索与 Jina Reader 内容获取等工具,并通过 MCP 协议向大型语言模型客户端提供规范化的资源与工具访问。
基于 Model Context Protocol (MCP) 的 Rijksmuseum MCP+ 后端,向 LLM 客户端以标准化的 JSON-RPC 形式提供资源、工具与提示模板,支持多种传输模式(STDIO、HTTP),并整合 Rijksmuseum 的元数据与向量检索能力以实现艺术品上下文服务。
基于 Model Context Protocol (MCP) 的本地服务器实现,提供对浏览器标签、分组、窗口等资源的访问、工具的注册与执行,以及提示模板的定义与渲染,供外部大语言模型(LLM)客户端通过 JSON-RPC 进行上下文查询、操作与交互。
基于 MCP 的后端服务,向 LLM 客户端提供循环肽分析工具、资源和提示模板,并通过 JSON-RPC 协议进行通信。
基于 Model Context Protocol (MCP) 的后端服务器实现,向 MCP 客户端提供 consulta_llm 工具、资源上下文和提示模板,支持 JSON-RPC 请求/响应,当前实现通过 STDIO 传输进行通信,具备资源管理、工具注册与执行、以及提示渲染等核心能力。
基于 Model Context Protocol(MCP)的后端服务器,向大模型客户端提供资源管理、工具注册/执行和提示渲染等能力,并通过 JSON-RPC 与客户端通信,支持多种传输模式与会话管理。
基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型客户端以标准化方式提供 Lean 的 YouTube 数据资源、可注册与执行的工具,以及可渲染的 Prompt 模板,支持 JSON-RPC 形式通信、会话管理与 MongoDB 缓存等能力。
基于 Model Context Protocol (MCP) 的后端服务器,为语言模型客户端提供 Google Play Store 的应用发现、详情、评价、关键词建议以及元数据校验等能力,具备代理轮换、会话管理和多工具接口,当前实现为可运行的原型。
基于 Model Context Protocol (MCP) 的 Mollie API 服务端,向大型语言模型(LLM)客户端以标准化方式提供 Mollie 支付信息、查询工具与 prompts,通过 JSON-RPC 与客户端通信并通过标准传输(如 Stdio)实现扩展性与会话管理。
基于 Model Context Protocol 的 MCP 服务器实现,能够从 Grafana Dashboard 提取指标和变量信息,并通过 Prometheus API 提供即时与时间范围查询等能力,向 LLM 客户端以标准化的 JSON-RPC 形式提供资源、工具与 Prompts。
基于 Model Context Protocol 的后端服务实现,提供资源托管、工具执行、以及提示模板渲染等能力,支持通过 JSON-RPC 与大语言模型客户端进行资源读取、外部功能调用、以及上下文管理等交互。服务器端提供 STDIO 传输的 JSON-RPC 服务,并可选搭建 HTTP 调试接口,适合将本地上下文服务嵌入到 AI 助手工作流中,便于对接 Kubernetes 资源、CRD、以及服务器端的 dry-run 验证等功能。
基于模型上下文协议(MCP)的后端服务,提供 Confluence 页面搜索与文本读取等功能,并通过 MCP 标准向大型语言模型(LLM)客户端暴露工具与资源,以便在对话系统中获取上下文数据与外部能力。
基于模型上下文协议(MCP)的后端服务器,实现资源/工具/提示模板的托管与对外能力暴露,支持 JSON-RPC 请求、SSE 实时传输和会话管理,为 LLM 客户端提供标准化的上下文服务。
基于 MCP 的语音输入输出后端服务,提供 listen、listen_fixed、speak 等工具,供 Claude Code 等 MCP 客户端进行语音对话和上下文管理。
基于 Model Context Protocol(MCP)的后端服务器实现,提供对 Binary Ninja 数据库的 SQL 查询、自然语言查询与外部工具调用能力,并通过 MCP/SSE 与 LLM 客户端进行标准化通信,作为上下文与功能服务入口。
基于模型上下文协议(MCP)的后端服务器,将 CyberChef 的海量数据处理操作和工具暴露给对话式AI客户端,支持资源管理、工具注册与执行,以及可定制的提示模板渲染,且通过 JSON-RPC 与客户端通信,覆盖多种传输方式(STDIO、HTTP、SSE、WebSocket),帮助生成式AI在执行数据处理任务时获得稳定、可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化 JSON-RPC 形式暴露资源、工具和提示,提供会话管理、能力声明、工具注册与执行,以及对多种传输协议的支持,构建可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的服务器端实现,提供对 Google Workspace(Gmail、Drive、Docs、Sheets、Calendar、Chat、People 等等)的资源管理、工具调用与 Prompt 渲染等能力,供 LLM 客户端以统一的 JSON-RPC 方式查询和执行。
基于 Model Context Protocol (MCP) 的后端服务实现,向大语言模型(LLM)客户端提供 YAML 规范写作辅助、资源/工具管理与提示模板渲染等能力。通过 JSON-RPC 与客户端通信,当前实现采用标准输入输出(stdio)传输方式,便于本地集成到开发工具链或桌面客户端(如 Claude 桌面)中。
基于 Model Context Protocol (MCP) 的后端服务器,提供标准化的上下文服务给 LLM 客户端。该服务器托管和管理用于取证分析的资源与数据访问能力、注册并执行工具以调用外部功能,并定义与渲染可定制的 Prompt 模板,支持 JSON-RPC 通信、会话管理以及多传输协议扩展,为跨平台取证分析与 AI 辅助分析提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器实现,用于通过标准化方式向 LLM 客户端提供 MSSQL 数据库的资源、工具和提示等上下文服务,支持多语言实现(Node 与 .NET 版本)以及基于 JSON-RPC 的交互。
基于 Model Context Protocol 的 MCP 服务端,为 LLM 客户端提供 NiceGUI 资源、工具、文档与示例等能力,并通过 JSON-RPC 与客户端通信,支持资源读取、工具执行、主题索引、示例检索、组件信息查询以及可选的屏幕截图和主提示渲染等功能。
基于 Model Context Protocol 构建的后端服务,为对话型客户端提供标准化的资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务,支持多引擎协同、JSON-RPC 通信以及多种传输协议的 MCP 场景实现。
基于 MCP(Model Context Protocol)的服务器实现,暴露 minecontext_screen_context 工具以供 MCP 客户端读取 MineContext 摘要并进行后续的 LLM 推理分析等。该仓库提供通过 FastMCP 构建的 MCP 服务端,能够接收请求、返回结构化上下文摘要,并与本地 MineContext 服务对接。
基于模型上下文协议(MCP)的 PostgreSQL 只读服务器实现,向LLM客户端提供结构化数据库资源、工具注册与提示渲染能力,通过JSON-RPC风格的MCP接口进行交互,支持多数据库只读查询、模式描述、索引/外键查询以及健康监控等功能。
基于 Common Lisp 的 MCP(Model Context Protocol)服务器实现,提供资源管理、工具注册与执行、提示模板渲染等核心能力,并通过 JSON-RPC 进行请求/响应。支持多种传输协议(stdio、TCP、HTTP),为大语言模型(LLM)客户端提供可扩展、可安全的上下文服务框架。
将大型语言模型 (LLM) 连接到 Salesforce 环境,安全提供组织、数据、用户和元数据等功能访问。
通过 Model Context Protocol (MCP),使 Claude 等 LLM 客户端能够安全访问 Scorecard 的模型评估工具。
该项目是基于 Model Context Protocol (MCP) 构建的服务器,使大型语言模型 (LLM) 客户端能够与 ONLYOFFICE DocSpace 平台进行交互,主要提供工具调用功能。
一个在Node.js环境下通过WebAssembly运行.NET ASP.NET Core实现Model Context Protocol (MCP) 服务器的基础示例。
一个基于 Model Context Protocol (MCP) 的服务器,连接 LLM 客户端到 Google Calendar 进行事件管理。
基于 Model Context Protocol 的服务器,提供对 Square Connect API 的标准化访问,赋能大型语言模型与 Square 商业数据和功能交互。
此项目是一个 Supabase MCP 服务器,允许 LLM 通过 Model Context Protocol 协议查询 Supabase 数据库和生成 TypeScript 类型定义。