标签搜索结果
基于 Model Context Protocol (MCP) 的本地后端服务器,向 LLM 客户端提供资源、工具与提示模板的统一上下文服务。通过 JSON-RPC 与客户端通信,服务器在 FOUNDATION 应用内运行,暴露本地知识图谱、工具执行能力以及可渲染的 Prompt 模板等功能,便于多样化的 LLM 交互场景。
基于 Model Context Protocol (MCP) 的后端服务,面向 LLM 客户端提供本地资源、可注册与执行的工具、以及可渲染的 Prompt 模板等上下文服务,采用 JSON-RPC 形式通信,默认通过 stdio 渠道运行并具备多平台扩展能力与会话管理。该仓库实现了完整的 MCP 服务器端逻辑和工具集合,支持资源托管、工具调用、Prompt 渲染等核心功能。
一个为AI代码助手设计的本地语义代码搜索服务器,让AI能够理解并智能搜索你的代码库。