返回首页

"嵌入模型" 标签

4 个结果

标签搜索结果

AI与计算

Context Vault MCP 服务器

基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与调用、以及提示模板渲染等核心功能,通过 JSON-RPC 与大语言模型客户端进行标准化上下文服务交互,支持本地文件存储+向量检索等能力。

AI与计算

Flex MCP Server

基于 Model Context Protocol (MCP) 的只读 SQL 端点服务器,提供对知识单元(cells)的资源读取、向量化检索和工具/预设执行能力,并支持多种传输方式(标准输入/输出、HTTP 端口等)。

AI与计算

Lilbee MCP 服务端

基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,提供资源管理、工具注册/执行、以及提示模板渲染等能力,供离线/本地 LLM 客户端通过 JSON-RPC 调用获取上下文、执行外部工具和渲染提示。

AI与计算

DMCP 动态模型上下文协议服务器

基于 MCP 的后端实现,提供动态工具发现、向量检索和跨后端工具路由,供 LLM 客户端通过 JSON-RPC 进行资源读取、工具调用与提示渲染。