标签搜索结果
基于 Model Context Protocol (MCP) 的后端服务器实现,提供文档资源管理、工具执行与 Prompt 渲染等能力,通过 MCP 标准的 JSON-RPC 与 LLM 客户端进行通信,支持本地/云端向量检索、文本检索、OCR、LLM 增强等流程,并可通过 stdio 或 HTTP 传输协议进行连接。
基于 Model Context Protocol(MCP)的后端服务器实现,提供代码资源管理、工具调用和提示模板渲染等能力,支持通过 JSON-RPC 采用标准的请求-响应模型与客户端通信,当前实现以标准输入输出(stdio)为传输通道。
基于 Model Context Protocol (MCP) 的后端服务器,提供对资源、工具、提示模板等的统一管理与渲染,通过 JSON-RPC 与 LLM 客户端通信,支持全局模式与单工作区模式,具备增量索引、并发查询与安全保护能力。
基于模型上下文协议(MCP)的多租户文档上下文服务端,提供资源托管、工具注册与执行、Prompts 定义与渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持健康检查、会话管理与多传输协议扩展,适用于为大语言模型提供可控的上下文与功能门控。
基于 Model Context Protocol 的 MCP 服务器实现,提供 JSON-RPC 风格的资源管理、工具注册与执行、以及 Prompt 渲染,支持基于 BM25/向量的工具搜索、审批流控制和多种传输模式,面向为 LLM 客户端提供安全、可扩展的上下文服务。