返回首页

"流式传输" 标签

23 个结果

标签搜索结果

网页与API

OpenAPI MCP Server

基于 Model Context Protocol (MCP) 的后端服务,能够将 OpenAPI 定义的 REST API 端点暴露为 MCP 工具,并可选地提供 Prompts 和 Resources,支持标准的 JSON-RPC 通信、会话管理以及多种传输方式(Stdio、HTTP streaming)以供 LLM 客户端使用。

网页与API

Turul MCP 框架(Rust-Beta 实现)

基于 Model Context Protocol (MCP) 的服务器端实现,提供资源管理、工具注册与执行、可自定义的 Prompt 模板渲染,以及多传输协议支持(如 HTTP 流、SSE、AWS Lambda 等),用于向大语言模型(LLM)客户端提供标准化的上下文和功能服务。具备会话管理、任务存储、实时通知、以及对 MCP 2025-11-25 规格的全面实现。

AI与计算

AppKit MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,聚焦资源管理、工具注册与执行,以及提示模板渲染,为大型语言模型客户端提供标准化的上下文和功能服务,支持多服务器并发、会话管理与多传输协议(如 SSE/HTTP 流、STDIO 等)通信。

AI与计算

Cytoscape MCP 服务器

基于模型上下文协议(MCP)的嵌入式后端服务器,部署在 Cytoscape Desktop 中,为大语言模型客户端提供资源访问、工具执行与 Prompt 相关的上下文服务,采用 JSON-RPC 风格通信并支持流式传输。

AI与计算

Ahma HTTP Bridge for MCP

基于 MCP(Model Context Protocol)的 HTTP 流式后端服务,通过逐会话创建子进程来实现沙箱化上下文和工具调用的安全隔离,支持资源/工具的托管,以及基于 Prompts 的交互模板渲染;客户端通过 JSON-RPC 与桥接服务通信,桥接再与底层 MCP 子进程对接,采用 POST 请求+ SSE 推送的流式传输模式。该实现覆盖初始化握手、根目录(roots/list)协商、沙箱锁定以及会话终止等核心 MCP 语义,并提供多种传输模式(STDIO、HTTP 桥接、SSE 等)以支持多样化的 LLM 客户端场景。<br/>注:核心 MCP 服务器组件由 ahma_mcp 子系统提供,ahma_http_bridge 负责作为“服务器端”的桥接实现,连接客户端与 MCP 子进程。

网页与API

Vision MCP 管理器

基于 Model Context Protocol 的 MCP 服务器控制平面,提供资源管理、工具注册、提示模板等功能,并通过 JSON-RPC/Streamable MCP 提供可扩展的上下文服务给 LLM 客户端使用。

AI与计算

Agentlytics Relay MCP Server

基于模型上下文协议(MCP)的后端服务,作为 Agentlytics Relay 的核心组件之一,为多用户环境提供资源、工具及提示模板的注册、查询与执行能力,并通过 SSE/Streamable HTTP 等传输方式向 LPC 客户端暴露上下文服务与外部功能。

AI与计算

AIInbx MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,用于通过标准化的 JSON-RPC 交互向 LLM 客户端提供资源管理、工具执行、以及可渲染的提示模板等上下文服务,支持多传输协议(如标准输入输出、HTTP 流式传输等),并包含代码执行工具与文档检索工具等扩展能力。

AI与计算

Hebo MCP 服务端实现

基于 MCP(Model Context Protocol)标准的服务器端实现,能够注册工具、通过流式传输向 LLM 客户端提供工具执行能力与上下文,并通过 JSON-RPC 进行交互,适用于分布式、AI 驱动的后端场景。

AI与计算

Things Cloud MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,将 Things Cloud 的数据与功能暴露给大模型/LLM 客户端,通过 JSON-RPC 提供资源管理、工具执行与模板渲染等能力,支持多用户、OAuth2.1 授权、流式传输等扩展特性,方便在云端对 Things 3 进行任务与信息管理。

AI与计算

Remnant MCP 服务器

基于 Remnant 的 JSON-RPC 2.0 MCP服务器实现,向 Claude Code 等 MCP 客户端暴露内存检索、内存记录、代理执行任务与技能执行等工具接口,并提供内置的内存提示/模板渲染能力。服务器通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多通道传输(HTTP/SSE/WebSocket),为 LLM 应用提供标准化的上下文与功能服务。

AI与计算

oJob-common MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,提供通过 HTTP SSE/STDIO 传输的 JSON-RPC 风格接口,管理资源、注册与执行工具、定义与渲染提示模板,面向大语言模型(LLM)客户端提供标准化的上下文服务和功能调用能力。

网页与API

FinanceServer MCP 后端

基于 Deno 的 MCP(模型上下文协议)服务端实现,提供用于 LLM 客户端的上下文资源、工具调用与提示模板等能力,支持多场景的 MCP 会话(如全局、账单/支出等),通过 JSON-RPC/流式传输与客户端进行交互,具备会话管理、能力声明以及多种传输协议的支持。该仓库不仅实现服务器端路由与会话,还对接了数据库、OAuth、以及 MCP 服务实例化等核心组件,形成完整的 MCP 服务端框架。

AI与计算

TestCollab MCP Server

基于 Model Context Protocol(MCP)的后端实现,向大语言模型客户端提供测试管理的上下文、资源、工具及提示模板渲染,并通过 JSON-RPC 的 MCP 协议与客户端进行通信与协作。

AI与计算

GH-AW MCP Gateway

基于 Model Context Protocol (MCP) 的后端网关实现,作为 MCP 服务器生态的核心网关,负责路由、聚合并管理后端 MCP 服务器,向 MCP 客户端提供一致的上下文、工具、资源等能力,并通过 Docker 容器或本地进程启动后端服务以实现 Stdio/HTTP 等传输模式和 JSON-RPC 通信。

AI与计算

Zotero MCP 集成服务器

基于 Model Context Protocol 的本地 MCP 服务器实现,集成到 Zotero 插件中,向 AI 客户端提供资源、工具和提示等上下文服务,并支持 Streamable HTTP 传输。

AI与计算

Memory Knowledge Graph MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供知识图谱资源管理、工具执行、以及提示模板渲染等功能,通过 JSON-RPC/流式传输与大型语言模型客户端进行交互。

AI与计算

MCP Nim SDK 服务器实现

基于 Nim 的 MCP 服务器实现,提供资源、工具、提示模板等管理,支持多种传输协议(stdio、SSE、HTTP/Streamable、InMemory),并通过 JSON-RPC 与客户端进行请求与响应通信。

AI与计算

Flask-MCP-Plus

基于 Flask 的 MCP 服务器实现,提供工具、资源、提示等接口,支持 JSON-RPC 风格的请求/响应以及流式传输,便于向大模型客户端提供上下文信息和外部功能接入。

AI与计算

VidCap YouTube API MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,作为 VidCap YouTube API 的上下文服务提供方,管理资源与工具,支持 JSON-RPC 的请求/响应,并通过 STDIO、流式 HTTP/WebSocket 等传输方式与 MCP 客户端进行交互,便于 AI 助手在对话中获取视频数据、执行外部功能和渲染提示模板。

AI与计算

Lunar MCP Server Kit

基于 Model Context Protocol(MCP)的后端服务器实现示例,提供资源/工具管理、工具执行以及面向 LLM 的上下文渲染能力,展示了如何用 MCPX 服务器核心实现 JSON-RPC 风格的请求/响应,并支持多种传输方式(如标准输入输出、SSE、HTTP 流等)。

AI与计算

Fastify MCP 服务器插件

将 Fastify 应用转变为高性能、可流式传输的 MCP 服务器,支持 AI 助手安全连接外部数据和工具。

开发者工具

FastAPI MCP Example Server

一个简单的FastAPI服务器,演示了基于模型上下文协议(MCP)的功能,通过SSE流式传输,为LLM交互提供示例工具。