返回首页

"内存服务" 标签

4 个结果

标签搜索结果

AI与计算

context-use MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务器端实现,提供对内存/资源的暴露、工具注册与执行,以及与客户端的 JSON-RPC 交互能力,支持通过不同传输协议与 LLM 客户端通信以提供上下文服务和记忆能力。

AI与计算

Boucle Broca MCP 服务器

Boucle 框架中基于 Model Context Protocol 的服务器实现,将 Broca 内存暴露为 MCP 服务,支持通过 JSON-RPC 与 LLM 客户端进行资源读取、工具调用等交互(当前实现以 stdio 传输为主)。

AI与计算

CyberMem MCP 服务器端实现

基于 Model Context Protocol (MCP) 的服务器端实现,提供资源(Resource)、工具(Tools)和提示模板(Prompts)的注册、管理与渲染,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输协议(如 Stdio、HTTP 流和 SSE)。实现了会话管理、能力声明以及对外暴露的内存引擎(OpenMemory/SQlite),可用于在本地或远程环境中为LLM客户端提供统一的上下文服务。

开发者工具

mcp serverless

提供工具管理功能的serverless MCP服务器实现,支持通过内存或标准IO进行客户端连接。