基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源(Resources)、工具(Tools)和提示模板(Prompts)的注册、管理和渲染能力,并通过 JSON-RPC 与客户端通信,支持 SSE 传输模式的事件推送,适合作为 LLM 客户端的上下文服务和外部功能执行入口。
基于 Model Context Protocol (MCP) 的后端服务,将 Live CSS Editor 作为 MCP 服务器,向 LLM 客户端提供 Resources、Tools、Prompts,并通过 JSON-RPC 与客户端通信,支持资源管理、工具执行、以及模板渲染等能力,适配多传输协议和会话管理。
基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供资源、工具和 Prompt 的标准化上下文服务,并通过 JSON-RPC 进行通信;支持会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket)的扩展能力,适用于将 Tana 数据和功能暴露给 AI 模型进行推理、调用和渲染。