基于 Model Context Protocol 的后端服务器,实现对资源、工具和 Prompt 的管理与渲染,支持 JSON-RPC 交互、WebSocket/SSE 等传输,面向本地化LLM客户端提供可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端以标准化方式提供 GitHub Actions 的上下文信息、工具和提示模板,并通过 JSON-RPC 与客户端通信,支持以 Stdio 传输模式运行,便于在 Claude Desktop 等环境中集成使用。
OpenOne 是一个非官方的 Model Context Protocol (MCP) 服务器,它将 Alteryx Analytics Cloud Platform 的核心功能封装成可供大型语言模型 (LLM) 客户端调用的工具和资源。
智能上下文MCP服务器,根据用户情境动态选择和编排工具,集成Gemini API,支持复杂工作流,为LLM提供上下文服务。
一个基于Model Context Protocol的服务器,允许AI助手通过工具管理和操作GitHub Actions工作流。
Apache Airflow MCP Server是一个MCP服务器实现,它封装了Apache Airflow的REST API,使得LLM客户端可以通过标准化的MCP协议与Airflow工作流进行交互,实现工作流管理和监控等功能。