返回首页

"多传输协议" 标签

47 个结果

标签搜索结果

AI与计算

Calliope MCP 服务端实现

基于 Model Context Protocol (MCP) 的服务器实现,向大语言模型客户端提供标准化的上下文服务与能力,包括资源管理、工具注册/执行以及提示模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 HTTP/HTTPS、stdio),具备会话管理、能力声明与可扩展的后端架构。

AI与计算

mcp-cli

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册/执行、以及可渲染的 Prompt 模板等能力,并通过 JSON-RPC 在多种传输通道(stdio、SSE、HTTP、WebSocket)与客户端进行通信,支持会话管理、热更新和工具缓存等特性。

AI与计算

Agenticore MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务,提供资源托管与访问、工具注册与执行、以及可定制的 Prompt 模板渲染,统一通过 JSON-RPC 与客户端交互,并支持多种传输方式(HTTP/SSE/stdio)以实现对大语言模型客户端的上下文与功能服务。

AI与计算

Mastra MCP Server 框架

基于 Model Context Protocol (MCP) 的后端框架,提供资源托管、工具注册与执行、以及提示模板渲染,并通过多传输通道与客户端进行标准化的 JSON-RPC 通信,支持在 Express、Hono、Fastify、Koa、Hono 等适配器上部署的 MCP 服务。

网页与API

Sardis MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,负责以标准化方式向 LLM 客户端提供上下文信息与功能,包括资源管理、工具注册/执行以及提示模板的定义与渲染;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输协议(如标准输入输出、SSE、WebSocket)实现轻量级、高扩展性的上下文服务。

AI与计算

Agent Zero MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现。该仓库提供资源、工具、提示模板等的托管与管理,并通过 JSON-RPC/多传输协议与 MCP 客户端进行交互,实现对上下文信息、工具执行以及提示渲染的标准化后端服务。

AI与计算

SecureYeoman MCP 服务器

基于 Model Context Protocol 的企业级 MCP 服务器实现,向 LLM 客户端提供资源、工具和提示等上下文信息,通过 JSON-RPC 进行通信,支持多传输通道(stdio、SSE、WebSocket)以实现高效的上下文服务。该仓库内包含完整的 MCP 服务器实现及相关 API、传输、会话与安全机制等模块。

AI与计算

GNO MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,为本地知识引擎提供标准化的资源管理、工具注册与执行、以及 Prompt 模板渲染,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议与会话管理,适用于离线或私有环境的上下文服务场景。

开发者工具

Harness MCP Server 2.0

基于 Model Context Protocol 的后端服务器实现,通过 JSON-RPC 规范向 LLM 客户端提供 Harness 平台的资源、工具与提示模板等上下文服务,支持多传输协议与会话管理,具备完整的工具注册、资源注册与提示模板渲染能力。

AI与计算

Voyage AI MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,作为后端上下文服务提供者,统一托管资源(Resources)、注册与执行 Tools、以及渲染 Prompt 模板;通过 JSON-RPC 与客户端进行通信,支持多传输模式(如 Stdio、SSE、WebSocket),实现会话管理和能力声明,帮助 LLM 客户端以标准化方式获取上下文、外部功能和提示模板。

AI与计算

ArchGuard MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务器实现,作为后端为大语言模型客户端提供标准化的上下文信息、资源数据、工具执行能力以及自定义提示模板等功能,支持 JSON-RPC 通信、会话管理和多种传输协议。

AI与计算

agent-coworker MCP 服务器实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、远程工具注册与执行,以及可自定义的 Prompt 模板渲染,支持多种传输协议(如 WebSocket、HTTP/SSE、stdio)并实现会话管理、能力声明和认证等服务端功能,面向与 LLM 客户端的标准化上下文与能力对接场景。

AI与计算

Tim 模型上下文协议服务器

基于 Model Context Protocol 的后端服务器实现,向语言模型客户端提供标准化的上下文信息和功能。核心能力包括托管与访问资源、注册与执行工具、定义与渲染 Prompt 模板;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多种传输协议(stdio、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

LibreChat MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册/执行、以及提示模板的后端服务,支持 JSON-RPC 通信与多传输协议(如 Stdio、SSE、WebSocket),用于向大语言模型客户端提供可扩展的上下文与功能接入。

AI与计算

Agento MCP 后端服务器实现

基于 Model Context Protocol (MCP) 的后端服务器框架,集成 Claude Code CLI,提供资源管理、工具注册与执行、以及可定制的提示模板渲染,支持多传输方式并具备会话与观测能力,面向向 LLM 客户端提供标准化的上下文服务。

AI与计算

Nex Context MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,托管资源、注册并执行工具、定义并渲染提示模板,提供面向 LLM 的标准化上下文服务与工具执行能力,支持多传输通道(如 Stdio、HTTP、SSE/WebSocket)与会话管理。

AI与计算

Lucius MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,面向 LLM 客户端提供统一的上下文能力(资源、工具、Prompts),通过 JSON-RPC 进行通信,底层采用 FastMCP 与 Starlette 构建,支持会话管理、能力声明以及多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,面向 Allure TestOps 场景的资源与工具服务化暴露。

AI与计算

UNITARES Model Context Protocol 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供对资源的托管与访问、工具的注册/执行,以及 Prompt 模板的定义与渲染。服务器通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明,并可通过多种传输协议(如标准输出/终端、Server-Sent Events、WebSocket)进行上下文服务与功能调用,为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

RayClaw MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具和提示模板的标准化管理与渲染,支持通过 JSON-RPC 进行通信,能够使用stdio和流式HTTP等传输、并具备协议协商、健康检查和工具缓存等完整服务器能力。

AI与计算

Tree-sitter Analyzer MCP 服务端

基于 MCP(Model Context Protocol)的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板的统一接口,并通过 JSON-RPC 与客户端通信,支持多种传输协议(如 Stdio、SSE、WebSocket),用于向大模型/LLM 客户端提供可扩展的上下文、数据访问以及外部功能调用能力。该仓库包含完整的服务端实现与大量 MCP 相关工具和测试用例,旨在作为企业级代码分析与 AI 辅助工作的后端上下文服务框架。

AI与计算

ChatML MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,使用 Claude Agent SDK 构建并暴露资源、工具及提示模板,通过 JSON-RPC 与 LLM 客户端进行交互,支持多传输协议并具备会话和能力管理能力。

AI与计算

Keep MCP 服务器

基于 Model Context Protocol (MCP) 构建的后端服务器实现,聚焦向 LLM 客户端以标准化方式提供上下文资源、可执行工具、以及可定制的 Prompt 模板。服务器通过 JSON-RPC 与客户端通信,支持会话管理、能力声明并提供多传输协议(如 Stdio、SSE、WebSocket),实现资源托管、工具注册与执行、以及 Prompts 的定义与渲染,旨在为 AI 代理/应用提供安全、可扩展的上下文服务框架。

网页与API

2020117 MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具、 Prompts 的标准化管理与查询,并通过 JSON-RPC 与 MCP 客户端进行交互,支持多传输通道(如标准输入/输出、WebSocket、SSE),为 AI 代理提供上下文、数据访问和外部功能调用能力。

AI与计算

NeuralMemory MCP 服务器

基于模型上下文协议(Model Context Protocol,MCP)的服务器实现,提供资源、工具、提示模板等的统一托管、注册与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(标准输入/输出、Server-Sent Events、WebSocket),为大语言模型客户端提供安全、可扩展的上下文服务框架。

AI与计算

Crust MCP网关服务器

Crust 是一个本地的 Model Context Protocol 网关后端,通过 JSON-RPC 与 MCP 客户端通信,提供资源、工具、提示模板等上下文服务,并在网关层实现安全规则拦截,支持多传输协议(如 Stdio、SSE、WebSocket)的接入与扩展。

AI与计算

MCP Boilerplate Rust

基于 Model Context Protocol (MCP) 2025-11-25 规范的多传输 MCP 服务器实现,提供资源管理、工具注册与执行、提示模板渲染等核心能力,支持通过 JSON-RPC 与客户端通信,涵盖 stdio、HTTP/SSE、WebSocket、gRPC、HTTP streaming 等传输模式,具备会话管理与观测能力。

开发者工具

AgentDecompile MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供上下文资源、可注册/执行的工具,以及可渲染的提示模板,采用 JSON-RPC 与客户端通信,并支持多种传输协议(stdio、HTTP 流式、SSE/WebSocket)以实现安全、可扩展的上下文服务。

开发者工具

Decibel Tools MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供项目上下文、资源管理、工具执行和提示模板渲染等能力,支持多传输协议(stdio、HTTP、桥接等)以及插件化工具集,通过 JSON-RPC/HTTP 与客户端通信,具备会话管理、能力声明与安全可扩展的上下文服务框架。

网页与API

Gridctl-MCP 网关与服务器框架

一个面向大语言模型客户端的后端网关框架,能够聚合、管理多组服务器、工具、资源,并通过标准化的 JSON-RPC 通信向客户端提供上下文和外部功能。支持多种传输方式(如 HTTP、stdio、SSE),并包含资源/工具/提示的注册、渲染、执行及对话上下文管理能力。

AI与计算

MCP Inspector 服务器端实现

基于 Model Context Protocol(MCP)的后端实现,提供资源托管与管理、工具注册与执行、以及提示模板的渲染与测试能力,并通过 JSON-RPC 与 LLM 客户端进行交互。支持多传输协议(如 SSE、WebSocket、stdin/stdio),用于为 LLM 应用提供可扩展的上下文服务框架。仓库实现包含服务端核心路由、MCP Apps 与 Widget 集成、OAuth/API Key 等认证测试用例,以及用于调试与开发的工具和中间件。

AI与计算

Converse MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,通过 JSON-RPC 与客户端通信,并支持多种传输方式(如 Stdio、SSE、WebSocket)以构建面向 LLM 的上下文服务框架。

AI与计算

PatternFly MCP Server

基于 Model Context Protocol 的 MCP 服务器端实现,提供 PatternFly 的资源、工具与文档的统一上下文服务,支持多传输协议(STDIO、HTTP/WebSocket 等)、会话管理与能力声明,水平扩展以供 LLM 客户端获取资源、执行工具和渲染 Prompt 模板等上下文信息。

网页与API

Jira MCP 服务器(基于 MCP 协议的 Jira 集成后端)

一个将 Jira 实例与大型语言模型客户端连接的后端服务,基于 Model Context Protocol (MCP),提供资源、工具和提示模板的统一访问,并支持 STDIO 与 SSE 多传输协议,便于 AI 应用以标准化方式获取上下文信息与 Jira 相关操作能力。

AI与计算

Knowledge Agent MCP 服务器

基于 Model Context Protocol 的 MCP 服务端实现,用于向 LLM 客户端提供资源、工具和提示模板的标准化上下文与功能服务,支持多传输协议并通过 JSON-RPC 进行通信。

AI与计算

Chak-MCP 服务器实现与示例

基于 Model Context Protocol(MCP)的服务器实现与示例生态,提供可运行的 MCP 服务器示例、工具暴露与管理,以及用于客户端接入的工具库,帮助构建以 MCP 为载体的上下文服务后端。

网页与API

You.com MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册、资源管理和内容/搜索相关能力,支持通过 JSON-RPC 与客户端通信,涵盖 STDIO 与 HTTP 两种传输方式的 MCP 服务端实现。

AI与计算

Thanos MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,负责以标准化的 JSON-RPC 方式向 LLM 客户端提供资源管理、工具注册/执行以及 Prompts 渲染等能力,并支持多传输协议(如 Stdio、SSE、WebSocket),实现会话管理、能力声明和可扩展的上下文服务框架。

开发者工具

mockd MCP 服务端

基于 MCP(Model Context Protocol)的后端服务器,实现对资源、工具和提示模板的统一管理与渲染,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多传输协议以适配不同应用场景。

网页与API

xsql MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供对 AI 客户端的上下文能力、工具执行与提示渲染等核心能力,通过 JSON-RPC 与客户端通信,并支持多传输协议(如标准输入输出和流式 HTTP)以实现安全、可扩展的后端上下文服务。

AI与计算

GitHub Agentic Workflows MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源托管、工具注册与执行、以及 Prompt 模板渲染,向 LLM 客户端以标准化的 JSON-RPC 方式提供上下文、数据访问和外部功能调用能力。

AI与计算

Path402 MCP Server

基于 Model Context Protocol (MCP) 的后端实现,作为对话型LLM客户端的后端服务,托管并管理资源(Resources)、注册与执行工具(Tools)、定义并渲染 Prompt 模板(Prompts),通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 等传输方式,提供会话管理和能力声明的上下文服务框架。

AI与计算

Agently-MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,向 MCP 客户端提供资源、工具与提示模板等上下文信息与功能,支持多传输协议、会话管理与认证,目标是为 LLM 客户端提供可扩展、安全的上下文服务框架。

AI与计算

Autobyteus MCP 服务端实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源(Resources)托管与访问、工具(Tools)的注册与执行,以及提示模板(Prompts)的定义与渲染,支持通过 JSON-RPC 与客户端通信,并具备会话管理与多传输协议(如 Stdio、SSE、WebSocket)扩展能力,为大语言模型(LLM)应用提供安全、可扩展的上下文服务框架。

AI与计算

Super AI Plugin Hub

基于 Model Context Protocol (MCP) 的服务器端框架,聚合、管理资源与工具,并通过 JSON-RPC 将上下文、工具与提示暴露给 LLM 客户端,同时支持本地与远程 MCP 服务器的代理与协作。

AI与计算

CC-Switch MCP 服务器实现

基于模型上下文协议(MCP)的服务器端实现,提供资源托管、工具注册/执行以及 Prompts 定义与渲染,通过 JSON-RPC 与 LLM 客户端通信,支持多种传输方式并具备会话管理与跨应用的 MCP 服务器管理能力。

网页与API

Peta MCP 服务器集合

基于 Model Context Protocol 的完整 MCP 服务器集合,覆盖 Google Drive、PostgreSQL、Notion、Figma、Google Calendar、GitHub、Zendesk 等多服务工具与资源托管,支持 JSON-RPC 通信、STDIO/REST 网关等传输方式,提供资源管理、工具注册与 Prompts 渲染等能力,便于与 LLM 客户端在同一后端进行上下文与功能扩展。

AI与计算

EdgarTools MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,面向 LLM 客户端提供统一的上下文资源、可注册的工具以及可渲染的 Prompt 模板。通过 JSON-RPC 与客户端通信,支持会话管理、能力宣告,以及多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,适配 Claude 等 AI 助手的上下文服务需求。