返回首页

"AI应用后端" 标签

26 个结果

标签搜索结果

数据库与文件

Vectorizer

Vectorizer是一个高性能的Rust语言实现的向量数据库和搜索引擎,为LLM提供MCP上下文服务,支持语义搜索、文档索引和图关系管理。

AI与计算

Asynchronous Component Base (ACB) - MCP服务器

ACB是一个模块化的Python框架,提供一个全面的Model Context Protocol (MCP) 服务器,使AI应用能发现、交互并编排其组件(如动作、适配器、服务)。

开发者工具

XMCP

一个用于使用 TypeScript 构建和部署 Model Context Protocol (MCP) 服务器的框架,旨在简化 LLM 应用上下文服务开发。

AI与计算

ChatGPT 应用 MCP 服务器示例

提供基于 Model Context Protocol (MCP) 的示例服务器实现,用于将 ChatGPT 应用与外部系统(如交互式UI小部件)连接。

AI与计算

Java LLM向量API与MCP服务器

这是一个基于Java实现的大语言模型(LLM)推理框架,集成了Java向量API,并提供了一个符合Model Context Protocol (MCP) 标准的工具服务器。

AI与计算

Deco CMS MCP服务器框架

Deco CMS提供构建AI原生应用的MCP服务器框架,通过标准化协议管理资源、工具和Prompt模板,支持LLM应用上下文服务。

AI与计算

Tableau MCP 服务器

通过 MCP 协议为 AI 应用提供 Tableau 数据、可视化和 Pulse 指标的访问与功能集成。

AI与计算

Azure MCP 服务器加速器

一个基于 Azure Container Apps 的 MCP 服务器快速部署解决方案,提供了可扩展的上下文信息和工具服务。

商业系统

WxMCPServer

将企业现有API转换为LLM可调用的MCP工具,利用webMethods集成平台提供安全、标准化的上下文服务。

AI与计算

Python MCP认证服务器

一个基于Python实现的MCP服务器,支持OAuth 2.0认证,提供安全的上下文信息和工具调用服务。

AI与计算

文档问答机器人MCP服务器

一个基于MCP协议的文档问答机器人后端,提供结构化的工具和上下文信息,支持LLM应用集成。

AI与计算

.NET MCP Web App Server

基于.NET实现的模型上下文协议(MCP)服务器示例,提供工具执行能力,可部署至Azure。

开发者工具

程序员MCP服务器

基于Model Context Protocol (MCP),为程序员提供编程上下文和AI工具的应用后端。

开发者工具

EZ-MCP:快速构建MCP服务器模板

提供即开即用的Python和TypeScript模板,助您快速构建功能齐全的MCP服务器。

AI与计算

AgentToAgent MCP 服务器实现

基于FastMCP框架构建的Model Context Protocol (MCP) 服务器实现,用于将代理能力暴露给大型语言模型客户端。

AI与计算

MCPheonix

基于Elixir/Phoenix实现的简化版Model Context Protocol (MCP) 服务器,提供大模型上下文和工具调用服务。

开发者工具

MCP Swift SDK

为Swift开发者提供构建和连接遵循Model Context Protocol (MCP) 标准的服务器和客户端的工具包。

通信与社交

MCP X Post Server

一个基于MCP协议的服务器,提供向X (Twitter) 发送推文的能力,支持LLM客户端调用。

AI与计算

Boltz-1 模型上下文服务器

为大型语言模型客户端提供 Boltz-1 生物分子结构预测功能和上下文服务。

AI与计算

Ding TypeScript SDK (MCP服务器)

通过Model Context Protocol (MCP) 将Ding OTP API功能作为工具提供给LLM客户端使用。

AI与计算

ContextBase Server

ContextBase Server 是一个专为AI应用设计的模型上下文协议(MCP)服务器,用于安全地存储、管理和检索用户上下文信息,支持构建个性化和持久化的AI交互体验。

AI与计算

Agent Construct

Agent Construct 是一个 Model Context Protocol (MCP) 服务器,旨在为 AI 应用提供标准化的工具和上下文访问方式。

开发者工具

Laravel MCP Server SDK

基于Laravel框架构建MCP服务器的SDK,提供资源、工具和Prompt管理,支持多种传输协议。

AI与计算

本地模型上下文协议 (MCP) 服务器

一个轻量级的本地MCP服务器实现,通过WebSocket和JSON-RPC协议,为LLM客户端提供文本处理和聊天能力。

AI与计算

server

该项目是基于FastAPI和MCP的Python MCP服务器实现,旨在为LLM客户端提供标准化的上下文交互能力,包括资源管理、工具注册和Prompt模板支持。

AI与计算

MCPheonix

MCPheonix 是一个基于 Elixir Phoenix 框架的 MCP 服务器实现,提供资源管理、工具调用和实时事件流等功能,旨在为 AI 模型提供统一的上下文交互接口。