基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型客户端提供 Home Assistant 的资源、工具和提示模板,并通过 JSON-RPC 标准化通信实现上下文管理、资源访问、工具执行与模板渲染等能力,支持多传输协议(以 WebSocket 为主,REST 提供部分 CRUD 功能),实现对 LLM 的安全、可扩展上下文服务。
基于 Model Context Protocol (MCP) 的后端服务,提供技能资源管理、工具注册与执行、以及提示模板渲染,向 LLM 客户端以标准 JSON-RPC 交互提供上下文与能力,支持多传输接口与会话管理。适合作为 AI 代理的可扩展上下文服务端。
基于 Rust 的 OAuth2 服务器,并提供一个 MCP(Model Context Protocol)服务端实现,用于通过统一的 JSON-RPC 工具接口让 AI 客户端注册/调用 OAuth2 资源与功能(如注册客户端、获取令牌、令牌镜像、健康/指标等),实现资源与工具的托管与执行,以支持对后端服务的上下文化访问。