返回首页

"多传输" 标签

5 个结果

标签搜索结果

AI与计算

Nova Reel MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供 Amazon Nova Reel 1.1 视频生成服务的上下文资源与工具接口,支持 STDIO、SSE、HTTP 三种传输方式,具备任务调度、状态查询、提示指南以及 AWS Bedrock 视频生成能力。该实现包含服务器端处理、工具定义与提示模板渲染等核心功能,符合 MCP 服务器的职责与通信模式。

AI与计算

AppKit MCP 服务器实现

基于 Model Context Protocol 的服务器端实现,提供面向大语言模型客户端的资源、工具和提示模板等上下文服务。仓库内包含多个并行的 MCP 服务端模块(如用户管理、图表、BPMN、图像生成等),通过 JSON-RPC 形式与客户端通信并支持多种传输通道(如 SSE、WebSocket/流式传输等)。该实现集成于 Reflex 应用之中,提供会话管理、能力声明和安全特性,能够作为后端 MCP 服务提供者供 LLM 客户端调用和上下文获取。

AI与计算

LangCare MCP FHIR Server

基于 MCP(Model Context Protocol)的后端服务器,使用 Go 实现的 FHIR 代理与工具执行平台。提供对 FHIR EMR 的资源托管与管理、通用工具的注册与执行、以及嵌入式 MCP Apps 的交互界面;通过多传输协议(stdio、HTTP)与客户端通信,具备会话管理、能力声明、审计日志和安全控制等企业级特性。

AI与计算

PhiFlow MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具注册/执行以及可渲染的提示模板等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理,适配分布式上下文服务场景。

AI与计算

ai-infra MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 方式提供资源管理、工具注册/执行以及 Prompt 模板渲染等上下文服务,支持会话管理、能力声明与多传输协议(如 stdio、SSE、WebSocket),旨在为 LLM 应用提供可扩展、安全的上下文服务能力。