标签搜索结果
基于 Model Context Protocol (MCP) 的本地后端服务,向大语言模型(LLM)客户端提供结构化的代码上下文、资源和工具,采用 JSON-RPC 进行请求/响应通讯,支持多传输协议并实现会话管理、能力声明与跨语言知识图谱查询等能力,适合在本地离线环境中为 AI 代理提供代码洞察与自动化工具执行能力。
基于 Model Context Protocol (MCP) 的后端服务器集合,为大模型客户端提供资源管理、工具执行与 prompts 渲染等标准化上下文服务,包含药物、蛋白、组学、文献、成像、沙盒等领域服务器,以及 PaperQA 等深度分析组件的本地化实现。
基于 Model Context Protocol (MCP) 的服务器端实现,向 AI 客户端提供代码知识上下文、资源、工具及 Prompt 管理能力,使用 JSON-RPC 与客户端通信,支持多传输协议(StdIO/SSE/WebSocket),并在本地存储中管理知识图谱及推理相关功能。
将本地 Ollama API 以工具形式暴露给 Cursor、Claude Desktop 等 LLM 客户端的后端服务,提供模型管理、对话、生成与嵌入等能力的 MCP 服务端实现。
基于 Model Context Protocol (MCP) 的后端服务器,提供 Roslyn 代码分析、资源/工具/提示模板的托管与管理,并通过 JSON-RPC 规范化与 Claude 类的 LLM 客户端对接,向其提供可读的上下文信息和可执行外部功能。
基于 Model Context Protocol(MCP)的后端实现,提供当前最先进模型的信息、硬件感知的资源筛选、可调用的工具,以及可渲染的提示模板;通过 JSON-RPC 与客户端通信,支持多传输通道,用于在 LLM 客户端中统一提供上下文信息与能力。