返回首页

"嵌入向量" 标签

4 个结果

标签搜索结果

AI与计算

AGENR MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,作为 LLM 客户端的上下文与能力提供者。该仓库实现了 MCP 服务器核心功能,包括资源(Resources)的托管与访问、工具(Tools)的注册与执行、Prompt 模板的定义与渲染,以及通过 JSON-RPC 与客户端的通信,支持多种传输通道(如标准输入输出、SSE、WebSocket),并具备会话管理与能力声明能力,用于提供安全、可扩展的上下文服务。

AI与计算

Lumen MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端实现,提供对资源的内部管理、注册并执行工具(如语义搜索与索引状态查询)、并通过 JSON-RPC 与 LLM 客户端进行通信。当前实现以 stdio 传输为主,内置 semantic_search 和 index_status 两个工具,支持进度通知、增量索引和向量检索等能力,适用于本地无云、无外部依赖的 AI 代码理解与上下文服务场景。

AI与计算

Lore MCP 服务器实现

基于 Model Context Protocol(MCP)的服务器实现,提供统一的资源管理、工具执行与提示模板渲染能力,支持多租户、TTL、嵌入向量等特性,并通过标准化的接口(如 stdio 传输)与 LLM 客户端通信。

AI与计算

BCS MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供数据资源管理、工具注册与执行,以及与向量化嵌入等组件的整合,作为大语言模型(LLM)客户端的上下文与能力后端服务。