基于 Model Context Protocol (MCP) 的 OpenStudio 后端服务器,向大型语言模型 (LLM) 客户端提供标准化的上下文信息与功能。核心职责包括托管和管理 OpenStudio 资源(如模型、设计日、结果等)、注册和执行工具(Tools,供 LLM 调用外部功能)、定义与渲染 Prompt 模板,并通过 JSON-RPC 与客户端通信实现会话管理、能力声明与多传输协议支持(如标准输入输出、服务器发送事件、WebSocket 等)。通过一个内存中的模型管理器维护模型状态,运行结果与跑步(Runs)输出存放在 /runs,提供安全、可扩展的后端服务框架。该实现面向与 OpenStudio/EnergyPlus 的集成与自动化工作流场景,方便将 LLM 的推理过程与能源模型操作结合起来。
基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,提供对 Final Cut Pro X 的 FCPXML 文件进行分析、修改和自动化的标准化 JSON-RPC 接口,支持资源发现、工具执行、提示渲染等核心能力,便于与 LLM 客户端协作完成上下文管理与功能调用。
Mo 是一个为 Cursor IDE 设计的 MCP 服务器,提供任务管理和 Linear 集成功能,帮助开发者在 IDE 内高效管理工作流。
为Atlassian Data Center产品(Jira、Confluence、Bitbucket)提供MCP服务器集成,使AI助手能够通过标准化接口访问和操作Atlassian资源。
Phabricator MCP Server是一个基于Model Context Protocol的服务器,允许LLM客户端通过标准化的JSON-RPC接口与Phabricator项目管理工具进行交互,实现任务和项目信息的查询。
基于 Integration App 平台的 MCP 服务器,将 Integration App Actions 作为工具提供给 LLM 客户端,实现工具的注册、查询和调用。
TaskManager MCP Server是一个用于任务管理的后端服务,允许LLM客户端(如Claude Desktop)创建、执行和跟踪任务,并提供任务队列管理和状态监控功能。