返回首页

"云原生后端" 标签

3 个结果

标签搜索结果

AI与计算

SpecForge MCP 服务器(Model Context Protocol 实现)

基于 Model Context Protocol (MCP) 的后端服务,作为 LLM 客户端的上下文服务提供者,负责资源与工具的托管管理、Prompt 模板的定义与渲染,以及与 MCP 客户端通过 JSON-RPC 协议进行通信。该实现包含身份鉴权、会话管理、快照与导入流程、以及对工具的注册与执行能力,支持多种传输与扩展能力,定位为 Agentier IDE 等环境中的后端上下文服务。

AI与计算

Hebo MCP 服务端实现

基于 MCP(Model Context Protocol)标准的服务器端实现,能够注册工具、通过流式传输向 LLM 客户端提供工具执行能力与上下文,并通过 JSON-RPC 进行交互,适用于分布式、AI 驱动的后端场景。

AI与计算

Cloudflare MCP Toolbox

在 Cloudflare Workers 上实现的基于 Model Context Protocol (MCP) 的后端服务器,提供 30 种实用工具、OAuth 认证、KV 存储以及 Workers AI 集成,旨在为大语言模型客户端提供统一的上下文、数据访问和外部功能调用能力。