返回首页

"LLM后端服务" 标签

16 个结果

标签搜索结果

开发者工具

Tambo MCP

Tambo MCP 提供基于 Model Context Protocol 的可定制后端服务,旨在为 LLM 客户端提供资源访问、工具执行和 Prompt 模板渲染功能。

开发者工具

Tidewave Python MCP服务器

Tidewave是一个基于Python的MCP服务器,深度集成Django、Flask和FastAPI框架,为LLM提供上下文信息、工具调用和模板调试能力。

AI与计算

XMRT.io AI生态协调中心

XMRT.io AI生态协调中心是一个基于Model Context Protocol (MCP)构建的后端服务,为LLM客户端提供实时上下文、工具调用及多AI智能体交互能力。

开发者工具

Laravel MCP 应用开发套件

基于 Laravel 框架构建的模型上下文协议 (MCP) 服务器和 OpenAI 兼容应用的开发入门套件。

AI与计算

MCP Forge Python

基于Python实现的生产级模型上下文协议(MCP)服务器模板,提供上下文管理、工具调用和Prompt交互功能,并集成了OAuth 2.0和JWT认证。

AI与计算

Cloudflare Agents MCP 服务骨架

提供基于Cloudflare Workers的MCP服务器实现模板,支持资源托管、工具执行和Prompt模板渲染,为LLM应用提供标准化上下文服务。

AI与计算

Pragmatic Model Context Protocol (PMCP) Rust SDK

基于Rust高性能和安全性构建的Model Context Protocol (MCP) SDK,提供全面的服务器和客户端实现,支持多种传输协议和核心MCP功能,助力LLM应用开发。

AI与计算

MCP服务器快速启动模板

为构建基于Model Context Protocol (MCP) 的AI助手上下文服务器提供快速启动模板,支持工具、资源和Prompt的集成与管理。

AI与计算

Azure MCP 服务器

一个可扩展的MCP服务器,用于向LLM客户端提供Azure资源访问、工具调用和最佳实践建议,支持多种工具加载模式。

AI与计算

Servidor MCP Livraria em .NET

Um servidor Model Context Protocol (MCP) em .NET que permite a LLMs acessar e gerenciar dados de uma livraria através de ferramentas.

AI与计算

MCP代理服务器

将多个MCP服务器聚合为一个统一接口,提供工具、资源和提示能力给LLM客户端。

AI与计算

Zig MCP 服务器

一个高性能、内存效率高的 MCP (Model Context Protocol) 服务器实现,使用 Zig 语言构建。

网页与API

基于Spring AI的MCP天气服务示例

一个基于Spring AI和MCP协议实现的后端服务,提供天气预报和警报查询工具。

网页与API

MCP网关

MCP网关作为反向代理,统一客户端入口,转发请求至后端MCP服务器,实现多MCP服务器的集中管理和访问。

数据库与文件

MCP多功能服务平台

MCP多功能服务平台是一个后端服务,为大型语言模型提供文件、数据库、API和向量数据库等资源的访问和管理能力,支持LLM应用构建。

AI与计算

Columbia MCP Servers

Columbia MCP Servers仓库是为LLM应用构建的后端服务,基于Model Context Protocol (MCP) 提供资源管理、工具注册和Prompt模板服务,支持Docker部署和高可用架构。