返回首页

"会话管理" 标签

163 个结果

标签搜索结果

AI与计算

GoAkt MCP 网关

基于 GoAkt Actor 模型实现的 MCP 网关后端,提供工具注册与管理、路由分发、会话管理、策略与审计等核心能力,并通过 JSON-RPC 与 MCP 客户端通信,支持 stdio 与 HTTP 传输方式来对接外部 MCP 服务器进程。

AI与计算

Healthcare ChatBot MCP 服务器实现

基于模型上下文协议(MCP)的后端服务器实现,使用 FastMCP 将 ChatBot 的查询、会话历史和配置信息以工具的形式对 MCP 客户端暴露,并支持通过 MCP 客户端进行跨进程/跨平台的上下文交互。

开发者工具

Clarvis MCP Server

基于 Model Context Protocol(MCP)的嵌入式后端实现。提供资源访问、工具执行与提示/上下文渲染能力,使用 JSON-RPC 通过 Unix 套接字与 LLM 客户端通信,包含会话管理、能力声明与多种传输适配的实现框架。该实现将资源、工具、以及与 LLM 交互所需的上下文信息暴露给客户端,方便构建对话型应用的上下文服务后端。

AI与计算

EV2090 MCP 后端服务器实现

基于 Model Context Protocol (MCP) 的服务器实现,提供资源、工具、提示等接口的标准化管理与访问,支持 JSON-RPC 的请求/响应,通过 WebSocket、SSE、HTTP POST 等传输方式与 LLM 客户端进行交互,并在 Cloudflare Workers 上实现会话管理、权限控制和多传输协议支持的后端服务框架。

AI与计算

mcp-cli

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册/执行、以及可渲染的 Prompt 模板等能力,并通过 JSON-RPC 在多种传输通道(stdio、SSE、HTTP、WebSocket)与客户端进行通信,支持会话管理、热更新和工具缓存等特性。

网页与API

JD.AI MCP 服务端

基于 JD.AI 架构的 MCP 服务器实现,提供资源管理、工具注册与执行、Prompt 模板定义与渲染,并通过 JSON-RPC 与 LLM 客户端进行上下文服务交互,支持多传输协议以实现安全可扩展的后端上下文服务。

AI与计算

Corpus Intelligence MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端以标准化方式提供资源、工具与提示模板,并通过 JSON-RPC 与客户端交互,实现会话管理、能力声明与多传输协议支持。

AI与计算

Sequential Thinking MCP v2 服务器实现

基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,提供会话管理、内存/思想(memory/thought)存储、分支与决策等资源与工具接口,并通过 JSON-RPC 进行通信,支持会话持久化、内存管理与多种交互场景,供 LLM 客户端调用外部功能与获取上下文数据。

AI与计算

Mai-Tai MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,实现资源、工具与 Prompt 的管理与执行,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多工作区、实时通知与会话管理。

AI与计算

Stock Data MCP Server

基于 Model Context Protocol(MCP)的后端服务实现,为 LLM 客户端提供标准化的上下文管理能力:托管资源和数据、注册并执行工具、定义并渲染 Prompt 模板,采用 JSON-RPC 与客户端通信,支持会话管理与多传输协议的扩展能力,为面向大语言模型的上下文服务提供安全、可扩展的服务端框架。

AI与计算

Plexus MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,作为 MCP 客户端的后端服务,提供资源、工具与提示模板的注册、管理与渲染,并通过 JSON-RPC/HTTP 与客户端进行通信,支持会话管理、能力声明以及多传输协议的 MCP 代理能力。

AI与计算

ANT MCP 服务器实现(a-nice-terminal)

基于 Model Context Protocol 的 MCP 服务器实现,提供对 ANT 会话、资源与工具的标准化访问,通过 JSON-RPC/StdIO-Socket 等方式与 MCP 客户端通信,支持工具注册、读取会话、发送消息、终端输入输出等核心功能,便于 AI 代理对 ANT 的上下文与能力进行调用与协作。

网页与API

BeigeBox MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,暴露 BeigeBox 的工具注册表为 MCP 服务,支持 initialize、tools/list、tools/call 等方法,按 JSON-RPC 2.0 规范与 MCP 客户端通信,方便 Claude Desktop 等客户端直接调用 BeigeBox 的工具能力。

AI与计算

Claude Sidecar MCP 后端服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端提供标准化的上下文资源、可调用的工具(Tools)以及可渲染的 Prompt 模板,采用 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输通道(如标准输入/输出、SSE、WebSocket 等)实现安全、可扩展的上下文服务。

AI与计算

Meridian MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,使用 FastMCP 通过标准的 JSON-RPC 方式向 LLM 客户端提供资源、工具以及提示模板等上下文能力,并实现会话管理、能力声明及多传输协议的扩展接口。该仓库同时提供注册与暴露 MCP Tool 名称与描述的功能,支持与客户端的对等互操作。

AI与计算

CLEO MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端以标准化方式提供上下文、资源、工具和提示模板等能力,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议接入,实现对资源、工具与提示的托管与渲染。

AI与计算

consult-llm-mcp

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册/执行和Prompt模板渲染,并通过 JSON-RPC 与客户端通信,支持多轮对话与多传输协议(如 STDIO、SSE、WebSocket)。

网页与API

Turul MCP 框架(Rust-Beta 实现)

基于 Model Context Protocol (MCP) 的服务器端实现,提供资源管理、工具注册与执行、可自定义的 Prompt 模板渲染,以及多传输协议支持(如 HTTP 流、SSE、AWS Lambda 等),用于向大语言模型(LLM)客户端提供标准化的上下文和功能服务。具备会话管理、任务存储、实时通知、以及对 MCP 2025-11-25 规格的全面实现。

开发者工具

Smithery MCP 服务器运行环境

基于 Model Context Protocol 的 MCP 服务器实现与运行框架,提供资源托管、工具注册与执行、以及 Prompt 模板渲染等核心能力,并支持多种传输协议(如 StdIO、HTTP 等)以便为大语言模型客户端提供可扩展的上下文服务。

AI与计算

Mu MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行以及提示模板渲染,并通过 JSON-RPC 与 MCP 客户端通信,支持多种传输与会话管理。

网页与API

Google Maps MCP 服务器

基于 MCP 的后端服务器,向大型语言模型(LLM)客户端暴露 Google Maps Platform 的工具与数据接口,支持通过 JSON-RPC 协议进行资源访问、工具调用与提示渲染。

AI与计算

Servant 模型上下文服务端

基于 Model Context Protocol (MCP) 的后端实现,使用 Vert.x 架构通过 JSON-RPC 与客户端通信,提供工具注册、会话管理与能力声明等核心 MCP 功能,支持将生成的上下文和能力暴露给 LLM 客户端以实现高效的上下文服务。

开发者工具

Sontag MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务,实现对资源、工具、提示模板的管理与渲染,并通过 JSON-RPC(基于 stdin/stdout)与 LLM 客户端进行交互,提供会话管理、工具注册与调用、以及可定制的 Prompt 渲染等能力。

网页与API

Stacklume MCP Server

基于 Model Context Protocol (MCP) 的 JSON-RPC MCP 服务器实现,提供资源(Resources)、工具(Tools)和提示模板(Prompts)的托管与管理,并通过统一的 JSON-RPC 与 LLM 客户端通信,支持会话管理与多传输场景。仓库中包含用于 MCP 校验的工具定义、JSON-RPC 路由实现,以及在 Next.js 环境下的服务器端实现代码。该实现不仅提供客户端调用示例,还实现了服务端的鉴权、能力声明与请求分发等核心功能。<div align="center">(MCP 服务器核心功能在 src/app/api/mcp/route.ts,可处理 initialize、tools/list、tools/call、ping 等方法并返回标准 JSON-RPC 响应。)</div>

桌面与硬件

ScreenHand

基于 Model Context Protocol (MCP) 的本地桌面自动化与上下文服务后端。ScreenHand 将桌面自动化、浏览器控制、内存学习、任务队列、和 Playbook 引擎等能力以 MCP 服务器的形式暴露,通过 JSON-RPC 方式为大型语言模型(LLM)客户端提供快速的资源访问、工具执行和提示渲染,支持 macOS 与 Windows 平台,具备会话管理、能力声明以及多传输协议的扩展能力。

AI与计算

Software Factory MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具注册与执行、Prompt 模板渲染等核心 MCP 功能,供 LLM 客户端通过 JSON-RPC 进行资源访问、工具调用与提示渲染等操作。

AI与计算

Harmonica MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,暴露 Harmonica 会话管理、数据查询与 AI 助手工具给 LLM 客户端,使用 JSON-RPC 进行通信,并支持多种传输方式(如 Stdio)以提供可扩展的上下文服务。

AI与计算

Poncho MCP Server

一个基于 Poncho 框架的 MCP 服务器实现,负责对外暴露 MCP 服务,处理 MCP 请求与响应,托管工具与资源,并通过流式事件与客户端协同工作。

AI与计算

Ahma HTTP Bridge for MCP

基于 MCP(Model Context Protocol)的 HTTP 流式后端服务,通过逐会话创建子进程来实现沙箱化上下文和工具调用的安全隔离,支持资源/工具的托管,以及基于 Prompts 的交互模板渲染;客户端通过 JSON-RPC 与桥接服务通信,桥接再与底层 MCP 子进程对接,采用 POST 请求+ SSE 推送的流式传输模式。该实现覆盖初始化握手、根目录(roots/list)协商、沙箱锁定以及会话终止等核心 MCP 语义,并提供多种传输模式(STDIO、HTTP 桥接、SSE 等)以支持多样化的 LLM 客户端场景。<br/>注:核心 MCP 服务器组件由 ahma_mcp 子系统提供,ahma_http_bridge 负责作为“服务器端”的桥接实现,连接客户端与 MCP 子进程。

AI与计算

Claude Plugins MCP 服务器合集

这是一个包含多个基于模型上下文协议(MCP)的服务器实现的插件集,提供资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 MCP SDK 的 JSON-RPC 与客户端进行交互,适用于 Claude Desktop 的上下文服务与插件化扩展场景。

AI与计算

meridian-channel MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,暴露资源、工具和提示模板,通过 JSON-RPC 与客户端通信,支持会话管理与可扩展的传输协议。

AI与计算

Claude Sidecar MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,实现标准化的上下文提供与外部功能调用能力。该服务器托管资源与工具,定义并渲染 Prompt 模板,支持 JSON-RPC 通信,提供会话管理与跨传输协议(如 StdIO、SSE、WebSocket)等能力,专为 Claude Desktop/Cowork 等客户端提供并行化的上下文服务。

AI与计算

Commandable MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端提供资源管理、工具注册与执行、以及可定制的 Prompt 模板渲染等上下文服务,支持 JSON-RPC 通信并可通过 STDIO、HTTP、SSE、WebSocket 等传输协议接入客户端。

AI与计算

Azure Voice Assistant MCP Server

基于 MCP 协议的异步后端实现,为 LLM 客户端提供 Azure AI Foundry 的模型调用、资源管理与提示渲染能力,并通过标准化的 JSON-RPC 交互实现工具执行与会话管理。

AI与计算

tilth MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 Tilth 的 MCP 服务端,通过 JSON-RPC 在标准输入输出(stdio)上与客户端通信,向 LLM 客户端提供资源、工具注册与执行、以及提示模板的管理与渲染等能力,支持会话管理、能力声明以及多种工具接口

AI与计算

VideoRLM KUAVi MCP 服务器

基于 VideoRLM 与 KUAVi 项目的 MCP 协议实现的后端服务器,提供资源管理、工具注册与执行、以及 Prompt 模板等功能,并通过标准化的 JSON-RPC/stdio 传输与 LLM 客户端进行通信,支持会话管理与多工具集成以支撑复杂的视频分析与推理任务。

AI与计算

Eurus ERA5 MCP 服务器

基于 Model Context Protocol 的 MCP 服务端,提供 ERA5 气候数据的资源管理、工具执行与 Prompt/模板渲染等能力,并通过 JSON-RPC 形式与 LLM 客户端(如 Claude Desktop、IDE 等)进行通信。

AI与计算

Coding Agent Hub MCP 服务器

基于 Model Context Protocol 的 MCP 服务器,向 LLM 客户端以标准化方式提供资源、工具与 Prompts,并通过 JSON-RPC 进行通信,支持会话管理、插件运行时以及多传输协议。

AI与计算

Personal Context Protocol - MCP 服务器

基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册/执行、以及 Prompt 模板渲染等核心能力,并通过 JSON-RPC 与客户端进行通信,支持会话管理与多传输协议。

AI与计算

Spring AI Agent MCP Server Platform

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册与执行、以及提示模版渲染等核心能力,并通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明以及多种传输协议(如 SSE、WebSocket、STDIN/STDOUT 等)以为大型语言模型应用提供可扩展的上下文服务。

AI与计算

MCP 代理服务器 - mcp-proxy

基于 Model Context Protocol (MCP) 的后端实现,作为通用的上下文服务网关:托管与管理资源、注册并执行工具、定义并渲染提示模板;通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、能力声明,以及多种传输协议(如 STDIO、SSE、WebSocket),并内置治理与合规机制保障上下文服务的安全、可扩展性与可追踪性。

开发者工具

NeuroVerse Governance MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供 JSON-RPC 交互、资源与工具注册与执行、以及提示模板的管理与渲染等能力,支持通过标准输入/输出与客户端进行通信,以及会话管理与多协议传输的扩展能力。

AI与计算

DeepSeek MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具和提示模板的统一上下文服务,支持多模型回退、会话管理、功能调用、JSON 输出、以及多传输协议(stdio 与 HTTP)等特性。

AI与计算

Janus MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,为 LLM 客户端提供标准化的资源、工具与提示的暴露和管理,并通过 JSON-RPC 进行远程调用与会话管理,具备可扩展的插件式架构与本地化推理上下文服务。

AI与计算

copilot-sdk-proxy

基于 GitHub Copilot SDK 的 MCP 风格服务器实现,提供对 OpenAI、Claude/Anthropic、Codex 等接口的代理与协同能力,支持多种后端 MCP 服务接入、工具与提示渲染,以及流式通信。通过 MCP 配置管理后端会话与工具,面向 LLM 客户端提供标准化上下文服务。

AI与计算

PhiFlow MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具注册/执行以及可渲染的提示模板等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理,适配分布式上下文服务场景。

AI与计算

CCOS-MCP 服务端

基于 CCOS 的 MCP 服务器实现,提供资源管理、工具注册/执行、以及基于 Prompts 的导航与渲染能力,支持通过 JSON-RPC 与 LLM 客户端进行资源读取、工具调用和提示模板获取等标准化上下文服务。

AI与计算

agentic-mcp

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具、提示模板等标准化上下文服务,支持多提供商协作、会话管理和多传输协议通信。

AI与计算

Claude Terminal MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,嵌入在 Claude Terminal 桌面应用中,提供资源、工具、提示模板等 MCP 组件给 LLM 客户端,通过 JSON-RPC 进行通信,并支持会话管理、能力声明与插件化注册表功能。

网页与API

Argus MCP Gateway

基于 Argus 网关实现的 MCP 服务器,提供稳定的 JSON-RPC 交互,向 MLP/LLM 客户端暴露资源、工具、提示模板等能力,并通过会话级授权实现隔离化访问,同时集成 Telegram 机器人入口与后台任务调度/心跳机制,实现资源管理、工具调用与 prompts 的统一管理和渲染。

AI与计算

XHelio MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 MCP 客户端提供数据资源、工具执行和 Prompt 渲染能力。通过将 XHelio 的 OrchestratorAgent 以 MCP 工具形式暴露,支持以 JSON-RPC 形式进行请求与响应,适用于由 MCP 客户端发起的对话、数据查询和可视化任务的后端服务,且可通过 stdio 等传输通道进行通信。

AI与计算

UNITARES Model Context Protocol 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供对资源的托管与访问、工具的注册/执行,以及 Prompt 模板的定义与渲染。服务器通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明,并可通过多种传输协议(如标准输出/终端、Server-Sent Events、WebSocket)进行上下文服务与功能调用,为 LLM 应用提供安全、可扩展的上下文服务框架。

网页与API

OpenChrome MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型(LLM)客户端以标准化的 JSON-RPC 方式提供资源管理、工具注册/执行以及可自定义的 Prompt 模板渲染,具备会话管理、并发浏览上下文、以及对多传输协议的支持,便于在浏览器自动化场景中提供安全、可扩展的上下文服务。

AI与计算

JaguarClaw MCP 服务器端

基于 Java Spring Boot 的 MCP 服务器实现,提供资源托管、工具注册与执行、提示模板渲染等能力,遵循 Model Context Protocol,支持 JSON-RPC 形式的请求/响应,并通过多种传输方式(如 STDIO/SSE/HTTP)与 LLM 客户端进行上下文服务交互。

AI与计算

COEIRO Operator MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册/执行、以及提示模板等功能,通过 JSON-RPC 与客户端交互,支持标准传输(如 Stdio)并可扩展为多种传输方式,适用于向 LLM 客户端提供上下文和外部功能接入能力。

AI与计算

Civ6 MCP Server

基于 Model Context Protocol (MCP) 的 Civilization VI 服务器实现:为语言模型客户端提供标准化的游戏上下文、资源/工具/提示等能力,通过 JSON-RPC(stdio 传输)与 Civ6 FireTuner 进行交互,并在服务器端提供日记、地图捕获、空间感知等扩展服务。

AI与计算

oh-my-codex MCP 服务端集合

基于 Model Context Protocol(MCP)的后端服务器集合,为 OpenAI Codex 及其生态中的多代理系统提供资源管理、工具执行、提示模板等统一的上下文服务,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理与多种传输通道(如 STDIO)。

AI与计算

AnviLLM MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供 JSON-RPC 接口用于注册与执行工具、管理资源与会话,并通过 9P 文件系统暴露资源接口,支持安全的代码执行工具与跨后端协作。

AI与计算

Dexto MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持多种传输协议并实现会话管理与能力声明。

AI与计算

Claude Code Studio MCP 服务器端实现

一个基于 MCP(Model Context Protocol)的后端服务,提供资源、工具与提示模板的标准化管理,并通过 JSON-RPC 与 Claude Code Studio 客户端交互,支持会话管理、技能/资源渲染以及远程执行等多种能力。

网页与API

Vincent MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,作为 MCP 服务器端提供对外的上下文服务。核心职责包括托管与管理资源(Resources)、注册与执行工具(Tools),以及定义与渲染 Prompt 模板,支持与 LLM 客户端通过 JSON-RPC 进行交互。服务器实现了 MCP 的核心接口(如 initialize、tools/list、tools/call),并通过 Bearer API key 进行鉴权、会话管理与策略检查,提供基本的 JSON-RPC 请求处理和响应。代码基于 Node.js + TypeScript,使用 Express 路由挂载在 /mcp 路径,并结合 Prisma 管理数据。

AI与计算

Brain Dump MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具、提示模板等统一注册、执行与渲染能力,通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议扩展,作为 LLM 客户端的上下文服务与功能入口。

网页与API

Nosible MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,提供资源、工具与 Prompts 的统一对外入口,面向 LLM 客户端提供可扩展的上下文与数据能力。

AI与计算

Xcode Assistant Copilot Server

一个基于 Swift 的本地服务器,作为 OpenAI 兼容代理,桥接 Xcode 的 Copilot 请求,并可通过 MCP 桥接实现资源、工具、提示等的管理与上下文服务,为本地大模型客户端提供安全、可扩展的上下文服务框架。

AI与计算

Cortex MCP 服务器端(Memory Bank 上下文管理服务器)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的渲染与渲染管理,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多传输协议的扩展,以为大语言模型客户端提供结构化的上下文与功能服务。

AI与计算

Helios Studio MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,面向大语言模型客户端提供标准化的上下文服务。核心职责包括托管与管理资源、注册和执行工具、定义与渲染 Prompt 模板,并通过 JSON-RPC 与客户端进行通信。具备资源/工具/提示的托管、会话管理、能力声明,以及对多传输协议的支持(如 Stdio、SSE、WebSocket)等能力。

网页与API

LCYT MCP 服务器(Python 实现)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及资源快照渲染等能力,采用 JSON-RPC 与 LLM 客户端通信,支持通过标准的 stdio/SSE 传输与多种客户端集成,用于向模型提供上下文信息和外部功能调用能力。

AI与计算

Quiver MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端通过标准化的 JSON-RPC 方式提供资源、工具和 Prompt 的注册、访问与渲染能力,并支持会话管理与多传输协议(如 STDIO/HTTP)的 MCP 服务。

AI与计算

Antigravity MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,作为 Antigravity-Manager 项目的一部分,提供标准化的模型上下文后端能力:托管 Resources(资源与数据)、注册与执行 Tools(外部功能调用)、定义与渲染 Prompts(提示模版),并通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理、能力声明以及多种传输协议,实现跨 OpenAI/Claude/Gemini 等协议的统一上下文服务和模型路由能力。

AI与计算

Quorum MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现;将 Quorum 的多AI协同推理能力以标准化的 JSON-RPC 服务形式暴露给 MCP 客户端,支持资源/工具/提示模板的管理与渲染,并通过标准化接口与客户端进行通信。

开发者工具

Agent Smith MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现资源、工具与 Prompt 模板的注册、管理与渲染,并通过 JSON-RPC 与客户端通信,提供会话管理与多传输协议支持的上下文服务框架。

AI与计算

MIE-MCP 服务器

基于 Memory Intelligence Engine (MIE) 的 MCP 服务器实现,提供 JSON-RPC 风格的模型上下文协议后端,用于向 LLM 客户端(如 Claude、ChatGPT、Cursor 等)暴露资源、工具,以及可渲染的提示模板,并支持会话管理与多种传输方式(如 STDIO、WebSocket、SSE)等能力。

网页与API

Keep MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,提供标准化的后端上下文服务,能够向客户端暴露 Resources、Tools,以及通过 MCP 协议读取和执行操作的能力,并以 JSON-RPC 形式进行请求/响应。实现了 MCP 的核心处理路径(初始化、获取资源、读取资源、列出工具、执行工具),并提供一个可运行的服务器接口入口(包括在 STDIO 模式下接收请求并返回响应的能力)。

网页与API

Recharge Storefront API MCP Server

基于 Model Context Protocol 的后端服务器,实现对 Recharge Storefront API 的资源访问、工具注册/执行以及 Prompts 渲染,面向与 LLM 客户端的标准化上下文服务能力。

AI与计算

PMOVES-BoTZ Docling-MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供文档处理资源、工具注册与执行、以及 Prompt/模板的上下文服务,支持通过 STDIO、HTTP/SSE 等传输协议与 LLM 客户端进行 JSON-RPC 通信,并具备健康检查、会话管理与多传输能力的后端服务框架。

AI与计算

Terminal MCP 服务器

基于 Model Context Protocol (MCP) 架构的后端实现,提供对本地 UNIX 终端的会话创建、命令执行、输出读取等能力,并通过 JSON-RPC 与客户端通信,采用标准输入输出传输(stdio)等方式对接 LLM 客户端、实现资源与工具的管理与渲染。

商业系统

Katana MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,通过 JSON-RPC 与客户端通信,支撑 LLM 应用的上下文与功能服务。

AI与计算

Pulse MCP 服务端

面向大语言模型的后端MCP服务器,实现通过JSON-RPC向LLM客户端提供资源、工具和Prompt相关的上下文服务,支持跨GitHub、Jira、Confluence的数据获取与操作,以及会话管理与多传输协议接入的能力。

开发者工具

Pwsh-Repl MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供持久化 PowerShell 会话、资源管理与工具执行,供大型语言模型(LLM)客户端通过 JSON-RPC 访问上下文数据和可执行功能。

AI与计算

SaveContext MCP 服务器

基于 Model Context Protocol 的本地化 MCP 服务器,向 LLM 客户端提供资源管理、工具注册与执行、提示模板渲染等能力,支持多会话、嵌入式语义检索、离线部署和多工具协作。

AI与计算

mcp-bbs MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务端,实现对 BBS Telnet 会话的管理、工具暴露、提示/菜单学习与知识库维护,并通过 MCP JSON-RPC 向 AI 客户端提供上下文信息与操作能力。

网页与API

Ask O11y MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务器实现,作为 Grafana 插件后端,负载资源管理、工具注册与执行、提示渲染等功能,并通过 JSON-RPC 与客户端通信,支持多传输协议、RBAC、多租户等场景的上下文服务框架。

AI与计算

CompText MCP 服务器

基于 Model Context Protocol (MCP) 的服务端实现,作为 CompText Codex 的后端上下文服务,向 MCP 客户端暴露工具清单、执行工具调用、以及初始化能力声明等接口。通过将 Codex 中注册的命令工具对外暴露,MCP 客户端能够读取资源、调用工具、以及获取提示/模板等相关能力信息,并在会话中实现上下文管理与跨模块协作。目前实现提供工具列出、工具执行和初始化响应等核心能力,属于可直接在应用中集成的 MCP 服务器端组件。

AI与计算

Baichuan MCP Servers - 医疗场景的 MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册与执行、以及 Prompts 渲染等 MCP Apps 功能,支持多传输模式(STDIO、SSE、HTTP),用于向 LLM 客户端提供标准化的上下文信息和能力。

开发者工具

kubectl-mtv MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,作为与大语言模型(LLM)客户端的标准化上下文服务入口,提供资源管理、工具注册/执行以及提示模板的渲染能力,支持 JSON-RPC 交互与多种传输模式(如 stdin/stdout、SSE、WebSocket),并具备会话管理、能力声明和动态工具发现等特性。该服务器以 kubectl-mtv 项目内的实现为基础,能够与客户端通过 JSON-RPC 请求交互,提供迁移相关的资源、工具及提示信息的上下文服务。

网页与API

Kuadrant MCP Gateway

基于模型上下文协议(MCP)的后端网关与服务器聚合实现,能够将多个后端MCP服务器 behind 一个统一入口进行托管、注册工具并通过JSON-RPC进行交互与通知。

AI与计算

Jaato MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与客户端通信,支持本地 IPC 与 WebSocket 等传输方式,面向 LLM 客户端提供可扩展的上下文服务。

AI与计算

SSH MCP Server

基于 Model Context Protocol 的后端服务,提供可运行的 MCP 服务,包含 SSH 连接管理、命令执行、SFTP、服务器配置管理、凭证存储与审计日志等工具,并通过 JSON-RPC 与 LLM 客户端交互,支持多连接、安全锁定与自动重连等特性,为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

Qurio MCP Server Backend

基于 Model Context Protocol 的 MCP 服务器实现,提供资源/工具/ prompts 的托管与管理,并通过 JSON-RPC/流式传输与 MCP 客户端交互,支持 SSE、Stdio、WebSocket 等传输形式,具备会话管理与扩展能力的后端服务器实现。

AI与计算

Fathom MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册与执行、会话管理、资源与提示结构的扩展能力,并通过 OAuth 授权安全地将 Fathom 数据(会议、转录、摘要等)暴露给大语言模型客户端进行上下文服务。

AI与计算

MCP 服务端(前端边缘 MCP 服务器与代理)

基于 Model Context Protocol 的完整 MCP 服务器实现,提供浏览器端边缘节点与远程代理之间的 JSON-RPC 通信、资源与工具管理、事件存储/查询,以及多会话、多标签下的工具路由等能力,支持 WebSocket 与 HTTP 传输。该仓库不仅包含前端边缘设备的实现,还实现了用于代理端的 Node.js 服务器、以及与 MCP 协议对接的服务端组件,形成一套较完整的 MCP 服务端生态。]

AI与计算

Farnsworth MCP 服务器

基于 Farnsworth 的 Model Context Protocol(MCP) 服务端实现;通过 MCP 协议向 MCP 客户端暴露资源管理、工具注册/执行以及提示模板等能力,支持多传输协议(如 Stdio、SSE、WebSocket),并实现会话管理与能力声明,提供一个安全、可扩展的上下文服务后端。

网页与API

tescmd MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化 JSON-RPC 形式暴露资源、工具和提示,提供会话管理、能力声明、工具注册与执行,以及对多种传输协议的支持,构建可扩展的上下文服务框架。

网页与API

Janee-MCP 服务端(本地密钥管理与审计日志)

基于 Model Context Protocol 的 MCP 服务器实现,提供对资源、工具和提示模板的注册、执行和渲染能力;通过 JSON-RPC 与 MCP 客户端通信,支持本地密钥管理、会话管理、策略审核和完整审计日志,适用于在本地或受控环境中为 AI Agent 提供上下文和外部 API 访问能力。

网页与API

Roo Extensions MCP 服务器集成

Roo Extensions 是一个面向开发者的 MCP 服务器生态,基于 Model Context Protocol 提供面向 LLM 客户端的资源管理、工具注册与执行以及可定制 Prompt 渲染等能力,核心通过 JSON-RPC 与客户端通信,并在多传输协议(如 Stdio、SSE、WebSocket)下提供会话管理、能力声明与扩展性,支持多 MCP 实例协同工作与跨机器同步。仓库中包含多个内部/外部 MCP 实例、同步系统 RooSync、SDDD 跟踪等组件,构成完整的后端上下文服务框架。

网页与API

UNITARES Governance MCP 服务器实现

基于 Model Context Protocol(MCP)理念的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,通过 JSON-RPC 与客户端通信,支持多传输协议(如 STDIN/STDIO、SSE、WebSocket)与会话管理,目标是在大语言模型客户端上提供结构化、可扩展的上下文服务。该仓库包含服务器端示例、核心数学与治理逻辑、工具与会话处理等模块,适用于搭建多智能体后端上下文服务场景。

开发者工具

Harness MCP 服务器端

基于 Model Context Protocol (MCP) 的完整后端服务器实现,提供资源、工具和提示模板的托管与数据访问,通过 JSON-RPC 形式与 MCP 客户端通信,支持 HTTP 与 stdio 两种传输模式,并实现会话管理、能力声明及多工具集扩展与集成 Harness API 的能力。

AI与计算

Berry Classic MCP 服务器

Berry 实现了基于 Model Context Protocol 的经典(Classic)MCP服务器 surface,提供核心的上下文服务能力:资源与证据管理、工具执行、以及提示模板的暴露与渲染,并通过 JSON-RPC 风格接口供 LLM 客户端调用。

AI与计算

SkillLite MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,负责向 LLM 客户端以标准化格式提供技能资源、工具注册与执行、以及 Prompt 模板的渲染,支持会话管理、能力声明,并通过 JSON-RPC 与客户端进行通信,具备沙箱化执行、工具调用以及多传输协议的能力。该实现包含服务器端逻辑、工具/技能管理、以及对外暴露的 MCP 接口,属于服务器端实现而非仅仅的客户端示例。

AI与计算

Hegelion-MCP 服务器实现

基于 Model Context Protocol(MCP)的通用后端实现,提供 dialectical 问答流程、自动编码工作流、资源与工具管理,以及基于 Prompt 的模板渲染。通过 JSON-RPC 与客户端通信,支持资源读取、工具调用、Prompt 获取与渲染等核心 MCP 功能,并实现会话管理、能力声明以及多传输通道的扩展能力(如 StdIO、SSE、WebSocket 等)以为 LLM 客户端提供安全、可扩展的上下文服务框架。

AI与计算

Aleph MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力;通过 MCP JSON-RPC 与客户端通信,支持多种传输形态,面向将大规模本地数据供给给大模型进行上下文驱动推理的应用场景。

AI与计算

Climux MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供对外暴露的工具、资源与提示模板,通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多种传输方式,作为 LLM 客户端的上下文与功能提供者。

开发者工具

Claude Code Harness MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现。该服务器通过 JSON-RPC 提供对工具的注册与执行、会话管理及跨客户端通信能力,支持多工具整合、Plans 与会话监控等功能,并通过标准传输(如 STDIO)与 MCP 客户端进行交互。该实现可作为 LLM 客户端(如 Claude Code、Codex 等)访问的上下文服务后端。

AI与计算

elephant.ai MCP 服务器

基于 Model Context Protocol 的 MCP 服务端实现,负责与 MCP 客户端通过 JSON-RPC 协议通信,注册并执行外部工具、管理资源与提示模板,并支持多种传输方式(如 STDIO、HTTP SSE),提供会话管理、能力声明及外部工具的接入能力。

AI与计算

Agently-MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,向 MCP 客户端提供资源、工具与提示模板等上下文信息与功能,支持多传输协议、会话管理与认证,目标是为 LLM 客户端提供可扩展、安全的上下文服务框架。

AI与计算

SSH-SFTP MCP 服务器

基于模型上下文协议(MCP)的后端实现,提供对远程服务器的 SSH 命令执行、SFTP 文件操作与会话管理等能力,供大型语言模型客户端通过 JSON-RPC 调用获取上下文、执行工具并管理会话。

AI与计算

Agents Council MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,支持多代理协同的会话管理、工具执行和提示渲染,面向 LLM 客户端提供标准化的上下文服务。

AI与计算

MemWyre MCP 服务器端实现

MemWyre 的 MCP 服务器端实现,基于 Model Context Protocol 架构,为 LLM 客户端提供标准化的资源、工具与提示模板,并通过 JSON-RPC 风格接口与客户端通信,支持会话管理、能力声明及多传输通道的扩展能力。

AI与计算

MyVibe SDLC MCP 服务器组

基于 Model Context Protocol (MCP) 的后端服务器集合,面向软件开发生命周期(SDLC)的资源/工具管理、AI 审核与挑战、状态与流程管控等功能,提供标准化的 JSON-RPC 风格接口并支持多种传输方式(如 标准输入/输出、WebSocket、SSE 等)以供 LLM 客户端调用与协作。

AI与计算

Rosetta Ruchy MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供翻译、分析与能力声明等核心服务,通过标准化接口向多语言客户端提供资源访问、工具执行与 Prompt 模板相关能力,并以 JSON-RPC 风格的 API 与客户端交互,具备会话管理、能力声明、以及可扩展的传输与部署方式,适配代码翻译及形式化验证等后续扩展场景。

桌面与硬件

GELab-GUI-MCP-Server

基于 Model Context Protocol 的本地多设备图形界面代理后端,提供资源与工具管理、会话管理和任务分发,通过 JSON-RPC/HTTPS 与客户端通信,支持对接多设备 GUI 自动化代理(如在手机上执行任务、获取截图、日志与最终结果)。仓库中包含完整的服务器实现代码(使用 FastMCP 框架的示例),可运行的 MCP 服务端,支持多设备任务分发与会话管理。

AI与计算

Agent Zero MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,面向 LLM 客户端提供统一的上下文信息、资源、工具与提示模板的管理与执行能力。服务器通过 JSON-RPC 风格的交互,支持资源读取、工具注册/执行、Prompts 渲染等核心功能,并具备会话管理、能力声明,以及对多种传输协议(如 STDIO、SSE、WebSocket 等)的扩展支持,适合在本地或服务端环境中作为 MCP 服务端使用。

AI与计算

ModelCypher MCP 服务器

ModelCypher MCP 服务器是一个基于 Model Context Protocol 的后端服务,提供资源、工具和提示模板的统一管理,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、能力声明及多传输协议。

AI与计算

FHL Bible MCP Server

基于 Model Context Protocol 的后端服务,向大语言模型客户端提供圣经经文、原文字词、注释及文章等资源的标准化访问与上下文服务,通过 JSON-RPC 进行通信,支持多传输模式、会话管理与能力声明。

AI与计算

URSA MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的托管与管理、工具注册与执行、以及 Prompt 模板的渲染,通过 JSON-RPC 与客户端进行通信,支持会话管理与多传输协议扩展。

网页与API

PraisonAI MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 STDIO、SSE、WebSocket)以为 LLM 客户端提供可扩展的上下文服务框架。

网页与API

Blinkit MCP

基于 MCP 的服务器实现,提供工具接口供 LLM 客户端通过 JSON-RPC 调用,控制 Blinkit 的购物流程(登录、搜索、下单等),并通过浏览器自动化实现实际操作。支持不同传输协议(如 SSE/StdIO),并实现会话管理与状态持久化。

AI与计算

Concierge MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册/执行、Prompt 模板渲染,并通过 MCP/JSON-RPC 进行客户端交互,支持会话管理与跨协议传输,面向 LLM 客户端提供可扩展的上下文服务框架。

AI与计算

Claude Sessions MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,实现 Claude Code 会话的资源管理、工具执行与提示渲染,提供统一的上下文服务给 LLM 客户端,采用 JSON-RPC 进行交互,支持多传输方式并完成会话、资源、工具等能力的托管与管理。

AI与计算

Claude Power Pack MCP 服务器套件

基于 Model Context Protocol (MCP) 的后端服务器集合,提供多模型协同的代码评审与开发辅助能力、浏览器自动化、以及分布式协调锁等服务,通过 SSE/HTTP 等传输方式对接 MCP 客户端,形成完整的后端上下文与工具提供框架。

AI与计算

y-gui MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,负责注册、管理与渲染 MCP 服务器、资源与工具,并通过流式交互与 MCP 客户端协同工作,提供对上下文、工具和提示模板的标准化服务。

AI与计算

py-code-mode

基于 MCP 的后端服务,为大语言模型客户端提供标准化的上下文信息与功能支持,托管资源、注册工具、定义与渲染提示模板,并通过 JSON-RPC 与客户端交互,支持多种传输协议与会话管理。该仓库实现了 MCP 相关组件与服务器端能力,旨在在本地或分布式环境下提供可扩展的上下文服务。

网页与API

Qveris MCP Server SDK

基于 Model Context Protocol 的后端服务器实现,提供工具发现、信息获取与执行能力,通过 JSON-RPC 与客户端交互,支持通过标准化接口向 LLM 客户端提供上下文信息和外部工具执行能力。

AI与计算

clai MCP 服务器框架

基于 Model Context Protocol (MCP) 的服务器框架,提供对 MCP 请求/响应的处理能力、资源与工具注册管理,以及通过 JSON-RPC 与客户端进行通信的多进程服务器支持与会话管理。

AI与计算

Code Guardian MCP Server

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理与多传输协议接入。

AI与计算

vLLM.rs MCP 服务端实现

基于 Rust 的 MCP(Model Context Protocol)服务器实现,整合 vLLM.rs 引擎,提供资源托管、工具注册与执行、Prompt 模板渲染等核心 MCP 功能,通过 JSON-RPC 风格通信与 MCP 客户端协同工作,支持多种传输场景并具备会话管理能力。

AI与计算

FlyFun MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务端实现,作为 MCP 服务器向大语言模型客户端提供标准化的资源管理、工具注册/执行以及 Prompt 模板渲染等能力,使用 JSON-RPC 进行通信,并支持会话管理与多传输协议(如 Stdio、SSE、WebSocket)以满足多样化上下文服务需求。

AI与计算

ida-headless-mcp

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板等能力,结合 ida-headless 的二进制分析功能,供大语言模型客户端通过 MCP 进行上下文信息获取与功能调用。

开发者工具

Claude Team 团队协作管理器

一个基于Model Context Protocol的MCP服务器,允许Claude Code主会话通过iTerm2生成和管理多个Claude Code工作会话,实现并行开发工作流。

开发者工具

Codex MCP 服务器

为 OpenAI Codex CLI 提供 MCP 协议支持的服务器,让 AI 助手能够通过标准化接口进行代码分析、审查和对话式开发

开发者工具

CLI Agent MCP Gateway

一个基于Go的HTTP网关服务,通过标准化MCP协议向LLM客户端提供多种AI CLI工具的上下文访问和功能调用能力

AI与计算

Symfony MCP Bundle

基于Symfony框架的MCP服务器组件,支持多种AI平台和工具调用

AI与计算

TinyBrain v2.0 - LLM安全记忆存储MCP服务器

一个基于PocketBase构建的模块化MCP服务器,专注于为大型语言模型提供安全评估会话、记忆存储、关系跟踪、上下文管理和任务进度跟踪服务。

开发者工具

Automagik Genie

Automagik Genie 是一个自进化的AI代理编排框架,通过其内置的MCP服务器为LLM客户端提供项目上下文、工具调用和会话管理,加速AI开发流程。

开发者工具

AI会话MCP服务器

该项目实现了基于MCP协议的服务器,用于统一管理和向LLM客户端提供本地AI编码助手(如Claude Code, Gemini CLI, OpenAI Codex, opencode)的历史会话记录。

AI与计算

Inkeep Agent运行时API

一个可扩展的AI Agent运行时后端,通过Model Context Protocol (MCP) 和A2A协议暴露AI Agent能力,提供工具调用、上下文管理和会话交互服务。

开发者工具

Codex AI助手服务

一个基于Model Context Protocol (MCP) 的后端服务,将OpenAI Codex CLI的能力集成到Claude等LLM客户端中,提供AI编程助手功能。

AI与计算

VERITAS 对话日志MCP服务器

VERITAS 对话日志MCP服务器是Model Context Protocol (MCP) 服务器,用于自动记录LLM对话、活动和工具使用,并生成研究日志。

AI与计算

Poet MCP 服务器

Poet 是一个集成 MCP 服务器的静态网站生成器,为 LLM 应用提供内容上下文和交互能力。

AI与计算

Nanobot

Nanobot是一个灵活的MCP主机,用于构建和部署AI代理,通过标准化协议向LLM客户端提供上下文、工具和Prompt服务。

AI与计算

Reboot 耐久型MCP服务器框架

一个基于Python的MCP服务器框架,提供持久化会话、工具和资源管理,支持服务器重启后安全地恢复LLM交互。

AI与计算

MCP聊天适配器

通过MCP协议,为LLM客户端提供连接OpenAI或兼容API的聊天能力和会话管理。

AI与计算

FastAPI MCP 服务器

基于FastAPI的MCP服务器,为大型语言模型提供上下文管理、工具调用和SSE实时通信能力。

网页与API

MCP SSE 代理服务器

提供基于 SSE 的代理层,连接并远程执行 MCP 服务器,支持共享/独立会话。

AI与计算

Streamable HTTP MCP Server (TypeScript)

基于 Model Context Protocol 和 Streamable HTTP 协议的服务器端实现,使用 TypeScript 开发,提供资源管理、工具注册和 Prompt 模板等核心 MCP 功能。

开发者工具

MCP认证参考服务器

本仓库提供了一系列参考服务器,演示了如何为MCP服务器实现身份验证,保障LLM客户端安全访问上下文信息和功能。

通信与社交

Coral Agent通信服务器

Coral Server是一个MCP服务器,为AI Agent提供线程消息通信工具,支持Agent注册、会话管理和消息传递。

AI与计算

模型上下文管理服务器

基于Model Context Protocol的后端服务,提供会话管理、上下文存储和AI模型查询等核心功能,简化LLM应用开发流程。

开发者工具

安全SSE MCP服务器

基于Node.js和MCP SDK构建,提供JWT认证的安全SSE传输MCP服务器,支持动态工具注册和会话管理。

桌面与硬件

Ollama Desktop API

Ollama Desktop API 为桌面应用提供 AI 模型服务,集成 MCP 协议,支持工具扩展和会话管理。

网页与API

MCP Catie 代理服务器

轻量级MCP代理服务器,根据请求内容动态路由JSON-RPC请求到后端服务,提供会话管理和监控等功能。

AI与计算

Gemini Context MCP 服务器

基于 Model Context Protocol 的 MCP 服务器,利用 Gemini 的强大能力提供上下文管理和 API 缓存,优化 LLM 应用的效率和成本。

数据库与文件

DB MCP Server

数据库MCP服务器,为LLM客户端提供数据库操作工具和上下文信息,简化数据库集成。

开发者工具

mcp servers

提供会话管理和任务管理的MCP服务器集合,增强LLM应用的状态保持和任务自动化能力。

商业系统

inoyu mcp unomi server

基于Model Context Protocol的Unomi服务器,通过Apache Unomi管理用户画像,为LLM客户端提供用户上下文信息和profile管理工具。

AI与计算

mcp server emojikey

该MCP服务器使用户能够通过emoji密钥跨会话保持一致的LLM交互风格,支持emoji密钥的存储、检索和历史记录管理功能。

开发者工具

Alec2435 python mcp

提供Python REPL环境的MCP服务器,支持LLM客户端执行Python代码并访问会话历史。

桌面与硬件

Tmux

Tmux MCP Server 是一个概念验证项目,它实现了 Model Context Protocol (MCP) 服务器,允许 LLM 客户端通过工具调用来控制和管理 Tmux 会话,例如运行 Tmux 命令。

桌面与硬件

Claude API

此项目是一个MCP服务器实现,旨在通过Model Context Protocol (MCP) 协议,为Claude桌面应用提供 Claude API 的集成能力,支持自定义系统提示、会话管理等高级功能,扩展了Claude桌面应用的功能。

AI与计算

Python REPL

提供Python交互式REPL环境的MCP服务器,允许LLM客户端执行Python代码并访问会话历史。

AI与计算

Room MCP

Room MCP 是一个基于 Model Context Protocol 的命令行工具,用于创建和管理虚拟房间,支持 LLM 客户端(如 Claude)在对等网络空间中与其他 Agent 协作完成目标。

生产力应用

Journaling Server

Journaling Server 是一个基于 MCP 协议的个人日记服务器,能够记录用户对话,进行情感分析,并提供最近日记的访问接口,方便 LLM 应用集成和调用。

开发者工具

Enhanced SSH

Enhanced SSH 仓库提供基于MCP协议的增强型SSH服务器和工具集合,支持安全远程命令执行、上下文感知工具调用和统一上下文管理,为LLM应用提供可扩展的后端服务框架。