返回首页

"外部功能集成" 标签

10 个结果

标签搜索结果

AI与计算

Veronica MCP 服务器实现

基于 Veronica Core 的 MCP 服务器实现,提供以标准化 JSON-RPC 形式向 LLM 客户端暴露资源管理、工具注册/执行、以及可渲染的 Prompt 模板等能力的后端组件。通过同步与异步适配器实现对 MCP 请求的处理,支持多传输协议(如 Stdio、SSE、WebSocket),并在服务器端负责会话管理、能力声明、预算约束与安全审计,面向 LLM 应用提供可扩展的上下文服务框架。

数据库与文件

MCP聊天机器人后端

基于Model Context Protocol (MCP) 标准,为LLM提供产品、工单和常见问题数据查询工具的服务器实现。

AI与计算

Cozy API MCP服务

为AI智能体提供基于Model Context Protocol (MCP) 的上下文服务,支持工具调用。

AI与计算

Spring AI MCP 调度服务

一个基于 Spring Boot 和 MCP 的后端服务,提供调度工具供 LLM 应用调用。

AI与计算

MCP 示例计算器服务器

提供一个基于 MCP 协议的计算器工具服务器示例,可供 LLM 调用进行数学计算。

AI与计算

MCP 工作坊:Hello Claude 服务器示例

一个极简 MCP 服务器示例,用于演示工具和资源的实现。

AI与计算

Model Context Protocol (.NET/Python) 服务器示例

提供 Model Context Protocol (MCP) 服务器在 .NET 和 Python 中的参考实现,演示如何为 LLM 客户端提供工具和上下文服务。

AI与计算

PuTi MCP Server

PuTi MCP Server 是一个基于 FastMCP 构建的轻量级 MCP 服务器,旨在为 LLM 应用提供工具注册和执行的后端服务。

开发者工具

modelcontextprotocol servers

该仓库提供了一系列基于Model Context Protocol (MCP) 的服务器参考实现,旨在帮助开发者快速构建LLM应用后端的上下文服务,涵盖文件系统、代码仓库、云服务、数据库等多种外部资源和工具的集成。

通信与社交

Voyp

Voyp MCP服务器是一个基于Model Context Protocol的应用后端,它集成Voyp的电话呼叫功能,允许LLM客户端通过标准化的MCP协议发起和管理电话呼叫,并获取呼叫相关的上下文信息。