返回首页

"本地嵌入" 标签

8 个结果

标签搜索结果

AI与计算

Cuba-Thinking MCP 服务器

基于 Model Context Protocol 的 MCP 后端实现,提供可注册的工具、跨 MCP 记忆协同、以及自带的六阶段认知引擎等能力,通过 JSON-RPC 与 LLM 客户端进行资源管理、工具执行、以及提示模板等交互,适合在本地环境为 AI 代理提供上下文与推理服务。

AI与计算

Personal Knowledge MCP

基于 Model Context Protocol (MCP) 的本地知识管理后端,向大语言模型客户端提供资源管理、工具注册与执行、以及可渲染的提示模板等能力。通过 JSON-RPC 与客户端通信,支持多传输协议(stdio、HTTP/SSE、WebSocket),并实现对会话、能力声明、以及私有知识库的扩展能力,适用于 Claude Code 等 AI 助手的上下文服务框架。

AI与计算

UltraCode MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,集中管理资源、注册与执行工具、定义与渲染 Prompt 模板,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议,提供本地化的代码上下文服务与扩展能力。

AI与计算

brain-mcp

基于 Model Context Protocol (MCP) 的本地化 AI 会话后台服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板,支持通过 JSON-RPC 与 LLM 客户端进行上下文服务交互,全部核心流程尽量在本地完成以避免云依赖。

AI与计算

SAME MCP 服务端

基于模型上下文协议(MCP)的后端服务器实现,提供对知识 vault 的资源管理、工具调用与提示模板渲染等能力,通过 JSON-RPC 方式与 LLM 客户端交互,支持标准的文本/向量检索、注释日志、手动与自动化操作等场景,并以标准的 stdio 传输启动 MCP 服务,方便与 Claude Code 等工具链对接。

AI与计算

Octobrain MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供内存资源管理、工具执行以及提示模板渲染等能力,通过 JSON-RPC 在标准输入输出(STDIO)与 LLM 客户端进行通信,支持多种内部传输与会话管理,用于向 LLM 客户端提供可访问的上下文信息与功能。

AI与计算

AI Craftsman Knowledge Rag MCP Server

基于 Model Context Protocol (MCP) 的本地知识检索后端服务器,向大语言模型客户端暴露知识源查询与源信息工具,支持项目级/全局知识库、向量检索以及本地嵌入计算,便于在本地环境中实现私有化、可控的知识上下文服务。

AI与计算

Opencode MCP 语义上下文服务器

基于 Model Context Protocol (MCP) 的后端服务器,用于向 LLM 客户端提供持久化记忆、工具执行和 Prompt 模板渲染等上下文服务;通过 JSON-RPC 与客户端通信,支持内存资源管理、工具注册/执行、Prompt 渲染,以及会话管理,具备本地向量检索、离线嵌入和多种传输能力的服务端实现。