标签搜索结果
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的管理、以及 Prompt 模板的定义与渲染,向 LLM 客户端按标准化 JSON-RPC 方式提供上下文信息与功能。通过 STDIO 传输、可扩展传输等能力,支持对本地活动历史的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、以及提示模板的渲染与渲染能力,支持通过多种传输协议与客户端进行 JSON-RPC 风格的交互,作为 LLM 客户端的上下文服务框架。