基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与客户端通信,支持本地 IPC 与 WebSocket 等传输方式,面向 LLM 客户端提供可扩展的上下文服务。
智能上下文MCP服务器,根据用户情境动态选择和编排工具,集成Gemini API,支持复杂工作流,为LLM提供上下文服务。
基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与客户端通信,支持本地 IPC 与 WebSocket 等传输方式,面向 LLM 客户端提供可扩展的上下文服务。
智能上下文MCP服务器,根据用户情境动态选择和编排工具,集成Gemini API,支持复杂工作流,为LLM提供上下文服务。