返回首页

"LLM 工具调用" 标签

9 个结果

标签搜索结果

AI与计算

Prism Guard-MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册、资源管理与提示模板渲染,通过 JSON-RPC 与 LLM 客户端交互,将请求转发到管理端策略引擎并返回执行结果,支持健康检查与可扩展的传输方案。

AI与计算

Agentlytics Relay MCP Server

基于模型上下文协议(MCP)的后端服务,作为 Agentlytics Relay 的核心组件之一,为多用户环境提供资源、工具及提示模板的注册、查询与执行能力,并通过 SSE/Streamable HTTP 等传输方式向 LPC 客户端暴露上下文服务与外部功能。

通信与社交

Letta-Matrix MCP 服务器

Letta-Matrix MCP 服务器是一个将 Matrix 聊天平台与 Letta 智能体系统桥接的后端服务,允许 LLM 客户端通过标准化的 MCP 协议与 Letta 智能体进行交互,提供上下文信息和功能调用。

AI与计算

Fastify MCP 工具插件

将 Fastify 框架的 API 路由自动转换为 MCP 工具,供 LLM 客户端调用。

AI与计算

Spring AI MCP 调度服务

一个基于 Spring Boot 和 MCP 的后端服务,提供调度工具供 LLM 应用调用。

开发者工具

Gradio 最小 MCP 服务器

一个基于 Gradio 构建的最小化 MCP 服务器,提供 Web UI 和可被 LLM 客户端调用的工具接口。

开发者工具

FastAPI-MCP

自动将 FastAPI 接口转化为 MCP 工具,无需配置。

AI与计算

Deco MCP 服务器插件

将 Deco 网站转换为 MCP 服务器,为 LLM 客户端提供工具调用能力。

AI与计算

网站生成器 MCP 服务器

一个基于 MCP 协议的服务器,通过 AI 快速生成网站,并提供工具供 LLM 客户端调用。