基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型客户端提供 Home Assistant 的资源、工具和提示模板,并通过 JSON-RPC 标准化通信实现上下文管理、资源访问、工具执行与模板渲染等能力,支持多传输协议(以 WebSocket 为主,REST 提供部分 CRUD 功能),实现对 LLM 的安全、可扩展上下文服务。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源/工具/提示的管理及标准化的 JSON-RPC 通信,并通过 SSE/WebSocket 等传输方式向 LLM 客户端提供上下文与能力服务。该仓库实现了可运行的 MCP 服务器端代码,包含 Durable Object、Hono 服务集成、SSE 与 WebSocket 传输等核心组件,以及用于测试的示例服务端实现。
基于 Model Context Protocol (MCP) 的本地后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等能力,供 LLM 客户端通过标准化的 JSON-RPC 进行资源读取、工具调用与提示渲染。实现了多传输协议(如 STDIO、SSE、WebSocket)下的通信,具备会话管理与能力声明,旨在为本地化的上下文服务与推理工作流提供结构化的后端支撑。
基于 Model Context Protocol(MCP)理念的服务器实现,通过 WebSocket 与 RemNote 插件进行桥接,提供对资源/数据的访问、工具调用能力,以及提示/模板渲染等能力。服务器通过 JSON-RPC 风格的请求-响应在客户端与 RemNote 插件之间传递指令与结果,并暴露 HTTP 控制接口用于管理会话、健康状态和执行命令,支持日志、进程管理与版本对齐等特性,具备可运行的后端 MCP 服务能力。
基于 Model Context Protocol (MCP) 的服务器实现,将 Max/MSP 的补丁、对象、工具等上下文信息以标准化的 JSON-RPC 形式提供给 MCP 客户端(如 Claude Code 这类集成工具),支持通过 WebSocket 与 stdio 两种传输通道进行通信,并包含对多补丁、工具集、资源访问、以及补丁渲染模板等功能的实现与管理。
基于 Crackerjack 的 MCP(Model Context Protocol)服务器实现,提供资源托管与管理、工具注册与执行、以及可渲染的 Prompt 模板等核心能力,通过 JSON-RPC 与客户端通信,并支持多种传输方式(如 WebSocket、StdIO、SSE),为 LLM 客户端提供安全、可扩展的上下文服务框架。
该仓库提供了一个基于Cloudflare Workers和Durable Objects的MCP服务器参考实现,专注于通过WebSocket提供数学计算工具服务。
一个基于Cloudflare Durable Objects实现的MCP服务器,通过WebSocket提供资源、工具和Prompt服务,并包含一个stdio代理客户端用于本地测试。