标签搜索结果
基于 Model Context Protocol(MCP)的多传输 MCP 服务器实现,向 LLM 客户端提供资源托管、工具注册/执行、以及提示模板渲染等上下文与能力。内部包含WebSocket(系统指标 / 资源上下文)与 gRPC(文件检索)等服务器组件,具备会话管理与多用户隔离能力,支持向客户端暴露资源、工具、提示等 MCP 相关信息,并通过相应传输协议进行请求/响应与通知。
为AI助手提供高性能Protocol Buffer定义索引、搜索和类型解析服务,通过MCP协议无缝集成。