基于 Model Context Protocol (MCP) 的后端服务器实现,聚合 ICC 配置分析、工具执行、资源管理与提示模板渲染,提供标准化的 JSON-RPC 通道供 LLM 客户端查询资源、注册并执行工具、以及获取和渲染提示模板。
基于 MCP 的 IntelliJ IDE 后端服务器,向 AI 客户端以统一的 JSON-RPC 方式提供资源、工具和提示模板,并通过 HTTP/SSE 等传输协议与客户端交互。
基于 Model Context Protocol (MCP) 的服务器实现,用于向 LLM 客户端提供塔罗牌解读工具(Tools)以及可扩展的上下文资源支持;通过 JSON-RPC 形式暴露操作,如生成牌阵(drawSpread)并记录解读(logReading),适合作为 LLM 的外部功能提供者与上下文后端。