返回首页

"tooling" 标签

5 个结果

标签搜索结果

AI与计算

Copilot Memory Store MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供可持久化内存存储、工具注册、Prompts、资源端点,以及通过 JSON-RPC 与客户端通信的 MCP 服务器,当前实现采用标准输入输出(STDIO)传输。

AI与计算

ragweld 基于 Model Context Protocol 的 MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板定义与渲染,并通过 JSON-RPC 方式与 MCP 客户端通信,支持嵌入式 MCP 传 transport(如 HTTP/Streams),用于向大型语言模型客户端提供可扩展的上下文与功能服务。

数据库与文件

Qdrant Fabric MCP 服务器

基于模型上下文协议(MCP)的后端服务器,提供对 Qdrant 数据库与云管理 API 的资源访问、工具执行以及可渲染的提示模板能力,面向大语言模型客户端通过标准化的 JSON-RPC 方式进行交互与集成。

AI与计算

ekkOS Memory MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对内存层、工具以及提示/模板的统一管理与访问,并通过 JSON-RPC 与客户端通信,支持通过标准化的工具调用、资源管理与记忆检索等能力来支撑面向 LLM 的上下文服务。

AI与计算

aimem MCP 服务器

基于 Model Context Protocol (MCP) 的本地化上下文服务后端,实现对资源、工具和提示模板的托管与管理,供 LLM 客户端通过 JSON-RPC 调用以获取上下文、执行工具与渲染提示模板。