标签搜索结果
基于模型上下文协议的后端服务器,向AI代理提供资源、工具及提示模板,并通过JSON-RPC进行请求与响应,实现对DevPlanner数据的读取、修改和外部功能调用,作为MCP服务端与前端Kanban系统的对接核心。
基于 Model Context Protocol (MCP) 的后端服务器,实现资源、工具与 Prompt 的管理与执行,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多工作区、实时通知与会话管理。
基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 LLM 客户端以标准化方式提供资源、工具和提示等上下文服务,并通过 JSON-RPC 与客户端通信,支持多 provider 路由与会话管理。
基于 Model Context Protocol (MCP) 的后端实现,向大模型客户端提供资源管理、工具注册/执行与可定制的提示模板等能力,并通过 JSON-RPC 与客户端通信,支持多种传输通道(stdio、WebSocket、SSE 等)以提供安全、可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器,为 AI 助手提供对 Jupyter 笔记本的上下文与功能访问,暴露资源、工具和笔记本操作,支持通过 JSON-RPC 与客户端通信,包含会话管理、内核控制、单元格执行与结果缓存等功能。
基于 Model Context Protocol (MCP) 构建的 Kanban 项目管理后端,通过 MCP 与 AI 助手进行上下文交互,提供创建与查询项目、任务、阶段等资源的能力,并支持工具调用与计划规划等 MCP 功能。服务器与客户端通过 JSON-RPC 风格的 MCP 协议进行通信,支持通过标准输入/输出等传输模式进行对话与协作。
基于 Model Context Protocol (MCP) 的后端实现,提供资源、工具与提示模板的管理与对外交互,并通过 JSON-RPC 形式与 LLM 客户端进行上下文服务与能力调用,支持 WebUI、WebSocket 等传输方式的 MCP 服务端功能。
基于 Model Context Protocol (MCP) 的自托管后端实现,提供资源、工具与提示模板的对外接入能力,面向大语言模型(LLM)客户端以标准化方式提供上下文信息与功能,当前实现通过标准的 MCP 服务器与管道传输(stdio)进行 JSON-RPC 风格的通信。
基于 Model Context Protocol(MCP)的后端服务器实现,提供对任务、代理人与消息等资源的管理,并通过 MCP 定义的工具接口向 LLM 客户端暴露可执行工具,支持通过标准的 JSON-RPC 风格请求与响应进行交互,传输可通过 STDIO(标准输入输出)实现,便于与 AI 模型或代理进行上下文协作。