标签搜索结果
基于 Model Context Protocol (MCP) 的本地后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染等能力,面向对接本地大模型客户端的上下文服务框架,支持多种传输协议与会话隔离。
基于 TrustChain 的 MCP 服务器实现,提供按 Model Context Protocol (MCP) 规范管理资源、注册工具并渲染提示模板的后端服务,通过 JSON-RPC 方式与 LLM 客户端进行上下文信息与功能调用的标准化交互。支持工具注册、资源访问、PROMPT 管理以及会话与多种传输协议的扩展能力,帮助 llm 应用方安全地获取可验证的上下文与功能。无论就地嵌入还是独立部署,该实现均可为 Claude Desktop 等客户端提供 MCP 服务。
基于 Model Context Protocol (MCP) 的服务器实现,提供带缓存的文件读取工具、批量读取、缓存状态与清理等功能,面向大语言模型(LLM)客户端以标准化方式提供资源、工具与提示渲染能力。
基于MCP协议,帮助AI智能体在代码库上协作,提供任务、会话、Git等上下文和工具能力。