返回首页

"云端服务" 标签

4 个结果

标签搜索结果

AI与计算

TheBrain MCP 服务器(FastMCP 基础实现)

基于 Model Context Protocol (MCP) 的后端实现,作为 AI 客户端的上下文服务网关,提供资源管理、工具注册与调用、以及基于 BrainQuery 的 Prompt/查询渲染与执行,并通过 Lightning 微支付对工具调用进行结算。该服务器以 TheBrain 云端知识图谱为核心数据源,支持多种工具与推理场景,适合作为 LLM 的上下文服务后端。

AI与计算

da-mcp

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型(如 Claude、ChatGPT)提供 DA(Document Authoring)资源、工具调用和提示模板等上下文能力,通过 JSON-RPC 与 MCP 客户端通信,并支持云端部署(Cloudflare Workers)、流式传输与简单的令牌鉴权。

网页与API

CATS API v3 MCP Server

基于 Model Context Protocol (MCP) 的后端实现,提供对 CATS API v3 的资源访问、工具注册与执行能力,并支持多传输模式(STDIO/HTTP)以便与大型语言模型(LLM)进行标准化交互,具备按需加载大量工具集、健康自检、结构化日志等特征,适合作为 LLM 的上下文与功能服务端。

AI与计算

Douyin MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供抖音视频的解析、无水印下载、信息查询等工具和资源,让大语言模型客户端以标准化方式访问并执行相关功能。