返回首页

"模型上下文" 标签

158 个结果

标签搜索结果

AI与计算

Shepherd MCP 后端服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板的定义渲渲染,并通过 JSON-RPC 与 Claude Desktop 等 MCP 客户端进行通信,支持多传输方式以实现对大语言模型的上下文服务。

AI与计算

Lemma MCP 服务端实现

基于 Lemma 引擎实现的 MCP(Model Context Protocol)服务器,提供对资源、工具与 Prompt 的标准化访问,通过 JSON-RPC 与客户端通讯,支撑 LLM 在后端获取上下文、执行外部功能与渲染提示模板等能力。

AI与计算

zhi Model Context Protocol 服务端

基于 Model Context Protocol 的后端服务器,向大型语言模型客户端提供资源管理、工具注册/执行以及可定制的提示模板等上下文服务;通过 JSON-RPC 进行请求/响应,并支持多种传输方式(如标准输入输出、HTTP SSE、WebSocket),实现会话管理与能力声明,面向配置管理场景的强扩展后端。

开发者工具

RC Engine MCP 服务器端框架

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册与执行、并渲染/提供 Prompt 模板等能力。服务器通过 JSON-RPC 与客户端通信,内置会话管理、能力声明,并支持多种传输协议(如 Stdio、SSE、WebSocket),可在 IDE 中以 MCP 服务器的形式集成,为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

DURA 模型上下文协议服务器实现

基于模型上下文协议(Model Context Protocol,MCP)的后端服务实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持多种传输方式以为大语言模型应用提供可扩展的上下文服务框架。

AI与计算

ez-xbow-platform-mcp

基于 Model Context Protocol(MCP)的后端服务器,向大语言模型客户端以标准化方式提供赛题资源、工具执行和提示模板等上下文服务,支持多种传输方式并可通过本地/远程 mock 平台进行测试。

AI与计算

LFX Changelog MCP Server

基于 Model Context Protocol (MCP) 的后端服务,用于向 LLM 客户端提供资源、工具和提示模板,支持通过 JSON-RPC 与客户端交互,并实现会话管理与多种传输方式的 MCP 服务端能力。

开发者工具

Zendesk 上下文服务 MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,暴露 Zendesk 的资源、操作与查询为可由 AI 客户端调用的工具集合,支持通过标准 MCP 传输(如标准输入输出)与客户端进行 JSON-RPC 通信,提供会话管理和可扩展的上下文服务框架。

AI与计算

PePeRS MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向大语言模型客户端提供统一的资源访问、工具调用和提示模板渲染能力;通过 JSON-RPC/HTTP+SSE 等协议与客户端通信,支持多传输协议、会话管理与能力声明,便于将上下文、工具和提示模板整合到 LLM 工作流中。

AI与计算

Medsci MCP 生物医学多域后端

基于 Model Context Protocol (MCP) 的后端服务器集合,为大模型客户端提供资源管理、工具执行与 prompts 渲染等标准化上下文服务,包含药物、蛋白、组学、文献、成像、沙盒等领域服务器,以及 PaperQA 等深度分析组件的本地化实现。

AI与计算

agenr MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,负责通过 JSON-RPC 向 LLM 客户端提供上下文信息与功能,包括托管和管理 Resources(资源)、注册与执行 Tools(工具),以及定义与渲染 Prompt 模板与交互模式。服务器负责会话管理、能力声明,并支持多种传输协议(如 STDIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

网页与API

Claude MCP 后端服务集合

基于 Model Context Protocol (MCP) 的多实现服务器集合,提供资源管理、工具注册与执行、以及提示模板渲染等上下文服务,供大语言模型客户端通过标准化的接口进行上下文数据访问与外部功能调用。

AI与计算

thesvg MCP服务器

基于 Model Context Protocol (MCP) 的后端实现,向 LLM 客户端以标准化方式提供图标资源、可注册的工具以及可渲染的 Prompt 模板,并通过 JSON-RPC 与客户端进行通信,当前实现包含资源查询、图标获取、分类列表等核心功能。

AI与计算

Plexus MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,作为 MCP 客户端的后端服务,提供资源、工具与提示模板的注册、管理与渲染,并通过 JSON-RPC/HTTP 与客户端进行通信,支持会话管理、能力声明以及多传输协议的 MCP 代理能力。

AI与计算

Thinkt MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,提供标准化的资源、工具、Prompts 的托管与管理,并通过 JSON-RPC 方式与 LLM 客户端通信。支持多源数据接入、工具注册/执行、Prompt 模板渲染,以及对话上下文的统一上下文服务,方便 LLMs 调用外部功能与获取上下文信息。

AI与计算

NexusCode MCP Knowledge Server

基于 Model Context Protocol (MCP) 的后端服务,向多种 LLM 客户端暴露可索引的资源、可执行的工具,以及可渲染的 Prompt 模板,提供标准化的 JSON-RPC/SSE/WebSocket 交互,用于资源访问、工具调用和上下文模板渲染,并支持会话管理与安全认证以服务化地为代码库提供上下文和功能服务。

AI与计算

Khoregos 模型上下文服务端

基于 Model Context Protocol 的后端实现,为大型语言模型客户端提供规范化的上下文资源、工具执行和提示渲染能力,支持与客户端通过 JSON-RPC 通信并实现会话、能力声明与多传输适配的后端服务。

AI与计算

SPAWN MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,作为 LLM 客户端的后端上下文服务,提供资源/内存、工具、日志与交互能力,并通过 JSON-RPC 形式与客户端通信,支持多传输协议(如 Streamable HTTP)。

AI与计算

workspace-qdrant-mcp

基于 Model Context Protocol (MCP) 的后端服务器实现,为 LLM 客户端提供标准化的上下文服务:托管资源、注册与执行工具、以及定义渲染 Prompt 的能力;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明和多传输协议(如 Stdio、SSE、WebSocket)等扩展能力。

AI与计算

CorvidAgent MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供标准化的资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,并通过 JSON-RPC 及 WebSocket/HTTP 等传输向 LLM 客户端暴露上下文与能力。该仓库实现了服务器端的完整 MCP 体系,包含工具箱、资源、提示模板等核心组成部分,以及用于与 MCP 客户端进行通信的路由与路由器。

AI与计算

tt-decomp Phase5 MCP 服务器

基于 Model Context Protocol(MCP)的服务器实现,面向 RockStar Table Tennis 的反汇编/去编译数据,提供资源管理、工具注册与执行、以及 Prompt 模板相关上下文服务,支持通过 JSON-RPC 与客户端(LLM)交互并可扩展传输通道。当前实现包含完整的 MCP 服务端代码、工具集定义与服务器启动逻辑,用于向 LLM 客户端暴露资源、工具和数据等能力。

AI与计算

TripPlanner MCP 服务器端

基于 Model Context Protocol(MCP)的后端实现,提供 Trips、Wishlists、Places 等资源的管理、工具执行以及 AI 助手交互能力,通过 /mcp HTTP 接口对外暴露给 MCP 客户端,支持本地 Ollama 模型、URL 导入、地理编码、天气等数据服务,适合作为 LLM 客户端的上下文与功能提供端。

AI与计算

Servant 模型上下文服务端

基于 Model Context Protocol (MCP) 的后端实现,使用 Vert.x 架构通过 JSON-RPC 与客户端通信,提供工具注册、会话管理与能力声明等核心 MCP 功能,支持将生成的上下文和能力暴露给 LLM 客户端以实现高效的上下文服务。

AI与计算

SubNetree MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,作为 SubNetree 后端的一部分,统一向大型语言模型客户端提供上下文资源、可注册与执行的工具,以及可渲染的提示模板。当前实现通过标准输入输出传输(stdio)提供 MCP 服务,内部通过 ReconStore/vault 等模块暴露设备与硬件信息、服务清单等资源,并注册一组工具供 LLM 客户端查询与操作,同时以 JSON-RPC 方式进行请求/响应通信,适合与 Claude Desktop 等客户端进行集成和对接。

开发者工具

Margin MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具注册/执行、以及 Prompt 模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,用于向本地应用数据、功能和交互模板提供统一上下文服务。

AI与计算

Adjutant MCP 服务器

基于模型上下文协议(MCP)的后端服务,提供资源管理、工具注册/执行与提示模板等能力,并通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互,支持多传输通道(SSE、WebSocket、标准输入输出等)与会话管理。

AI与计算

OpenPencil MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供对资源、工具与提示模板的标准化访问与执行能力,支持 JSON-RPC 通信、会话管理以及多传输协议(如 Stdio、HTTP、SSE、WebSocket),用于与 LLM 客户端构建安全、可扩展的上下文服务后端。

AI与计算

MCP Serve - Model Context Protocol 后端服务器

基于 Model Context Protocol 的后端 MCP 服务器实现,提供可执行的 MCP 服务(工具、资源、提示等能力)以供 LLM 客户端访问,采用 JSON-RPC 风格进行通信并支持多种传输方式(如 Server-Sent Events)。

AI与计算

MCP 服务器合集(Model Context Protocol 实现)

基于 Model Context Protocol 的多语言 MCP 服务器实现集合,提供资源与工具的管理、JSON-RPC 风格请求响应、SSE 推送、健康与监控等核心能力,支持 Go、Python 等语言实现,适合与大语言模型客户端进行模态化上下文服务交互。

开发者工具

Magpie MCP 服务器

基于 Model Context Protocol 的后端服务器实现,提供资源、工具和 Prompt 的注册、托管与渲染,并通过 JSON-RPC 与 LLM 客户端通信,支持多种执行环境用于 AI 代理的上下文服务。

AI与计算

Seren MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,能够托管资源、注册工具、定义和渲染 Prompt,支持 JSON-RPC 通信,具备本地与嵌入式 MCP 服务器的管理能力。

AI与计算

Sellf MCP 服务器( Claude Desktop 版本)

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、Prompt 定义与渲染,并通过 JSON-RPC 与客户端通信,支持多种传输协议,用以向 LLM 客户端提供一致的上下文与功能。若干资源、工具和提示可通过 MCP 服务器集中管理与渲染,适用于 Claude Desktop 等集成场景。

AI与计算

Atlas MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互,支持多传输协议(如 Stdio、SSE、WebSocket)。

AI与计算

Rainy Updates 本地模型上下文服务器

基于 Model Context Protocol 的本地后端服务器,向大语言模型客户端提供统一的资源管理、工具注册与执行、以及可定制的提示模板渲染,全部通过 JSON-RPC 与客户端通信,支持多种传输通道以实现安全、可扩展的上下文服务。

AI与计算

Claude Plugins MCP 服务器合集

这是一个包含多个基于模型上下文协议(MCP)的服务器实现的插件集,提供资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 MCP SDK 的 JSON-RPC 与客户端进行交互,适用于 Claude Desktop 的上下文服务与插件化扩展场景。

网页与API

Browser Bridge MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,作为后端服务向 LLM 客户端提供标准化的上下文信息与功能。核心职责包括托管与管理 资源(Resource)、注册与执行 工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 MCP 规范的协议与客户端进行 JSON-RPC 风格的请求/响应交互,支持会话管理、能力声明,以及对接 Core/扩展组件的桥接能力。

AI与计算

helix.mcp

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,将 Helix、AzDO 等 API 封装为结构化的 MCP Tool,提供资源与工具管理、跨进程缓存、以及面向 LLM 的上下文服务,支持 stdio 和 HTTP 传输等传输协议。

AI与计算

SlimClaw MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 SlimClaw 的内部 MCP 服务端,向 LLM 客户端以标准化的 JSON-RPC 形式提供资源管理、工具注册与调用、以及提示模板渲染等能力;通过标准的传输(如 stdin/stdout)与容器化执行环境进行交互,支撑多组会话、任务调度与分组上下文管理等功能。

AI与计算

AppKit MCP 服务器实现

基于 Model Context Protocol 的服务器端实现,提供面向大语言模型客户端的资源、工具和提示模板等上下文服务。仓库内包含多个并行的 MCP 服务端模块(如用户管理、图表、BPMN、图像生成等),通过 JSON-RPC 形式与客户端通信并支持多种传输通道(如 SSE、WebSocket/流式传输等)。该实现集成于 Reflex 应用之中,提供会话管理、能力声明和安全特性,能够作为后端 MCP 服务提供者供 LLM 客户端调用和上下文获取。

网页与API

maintenant MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,实现资源(Resources)、工具(Tools)和提示模板(Prompts)的管理与渲染,提供标准化的 JSON-RPC 交互给 LLM 客户端,并支持多种传输方式(stdio、Streamable HTTP、SSE/WebSocket 等)以及 OAuth2 安全认证,是一个面向 MCP 客户端的后端服务实现。

AI与计算

EGOS MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,作为后端上下文服务中枢,托管资源、注册并执行工具、渲染可自定义的 Prompt 模板,并通过 JSON-RPC 提供统一的上下文服务接口给 LLM 客户端。

开发者工具

Tekla MCP Server

基于 Model Context Protocol (MCP) 的 Tekla Structures 服务端实现,提供标准化的上下文信息、工具执行与模板渲染等能力,通过 JSON-RPC 与客户端通信,供大模型/LLM 客户端获取 Tekla 模型的上下文数据、执行外部功能及渲染提示模板。

AI与计算

Gemini MCP 服务端(Rust 实现)

基于 Model Context Protocol (MCP) 的 JSON-RPC 2.0 服务器实现,提供资源管理、工具调用与上下文提示渲染,作为 Claude Code 等客户端的后端上下文服务,采用标准输入输出传输进行通信。

AI与计算

Koryphaios MCP后端服务器

基于 Model Context Protocol(MCP)的后端服务器,向大型语言模型客户端提供标准化的资源、工具与提示模板,并通过JSON-RPC进行交互;具备会话管理、能力声明、多传输协议支持(如 StdIO、SSE、WebSocket)以及安全可扩展的上下文服务框架。

AI与计算

LibreChat MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册/执行、以及提示模板的后端服务,支持 JSON-RPC 通信与多传输协议(如 Stdio、SSE、WebSocket),用于向大语言模型客户端提供可扩展的上下文与功能接入。

AI与计算

Spring AI Agent MCP Server Platform

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册与执行、以及提示模版渲染等核心能力,并通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明以及多种传输协议(如 SSE、WebSocket、STDIN/STDOUT 等)以为大型语言模型应用提供可扩展的上下文服务。

AI与计算

Cognithor MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端实现,作为 LLM 客户端的上下文提供与能力服务中心,负责托管资源、注册并执行工具、定义与渲染提示模板,并通过 JSON-RPC 在多种传输通道上与客户端通信,支持会话、能力声明与安全沙箱机制的扩展能力。

AI与计算

tack-mcp 服务端

基于 Model Context Protocol (MCP) 的服务器实现,向 LLM 客户端以标准化方式暴露上下文资源、可执行工具与提示模板,并通过 JSON-RPC 形式进行交互,支持会话管理与多种传输通道的对接(当前实现以 STDIO 传输为主)。

AI与计算

Elisa MCP 后端服务器

基于模型上下文协议(MCP)的后端服务器实现,集成资源/工具/提示模板的管理与暴露,通过 Express + WebSocket 提供对 LLM 客户端的上下文服务,并支持通过外部 MCP 服务器和设备插件进行扩展与连接。

AI与计算

MCP 代理服务器 - mcp-proxy

基于 Model Context Protocol (MCP) 的后端实现,作为通用的上下文服务网关:托管与管理资源、注册并执行工具、定义并渲染提示模板;通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、能力声明,以及多种传输协议(如 STDIO、SSE、WebSocket),并内置治理与合规机制保障上下文服务的安全、可扩展性与可追踪性。

AI与计算

Proletariat MCP Server

基于 Model Context Protocol 的后端服务器,提供资源管理、工具注册/执行和提示模板渲染的标准化服务,采用 JSON-RPC 与 LLM 客户端通信,支持多传输协议并具备会话管理与能力声明能力。

AI与计算

AI4One MCP 服务器工具箱

基于模型上下文协议的后端服务器实现集合,提供文件操作、待办列表和世界信息等工具,面向大型语言模型客户端,通过 JSON-RPC 风格通信,支持多种传输协议(stdio、SSE、mcp/HTTP 等)。

AI与计算

Mesnada MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,通过 JSON-RPC 与客户端通信,支持 HTTP/微前端传输与 stdio 等多种传输方式,适合作为 LLM 客户端的上下文与功能后端服务。

AI与计算

aidaemon MCP 服务器

基于 Model Context Protocol(MCP)的后端实现,提供资源(Resources)托管、工具(Tools)注册/执行、以及 Prompt 模板的定义与渲染,通过 JSON-RPC 与 LLM 客户端进行标准化上下文服务交互,并支持会话管理与跨传输协议的通信能力。

AI与计算

Multi-CLI MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供跨多 AI 客户端的工具、提示与潜在资源上下文服务,支持 JSON-RPC 请求/响应、会话管理以及标准传输(如 STDIO)。

网页与API

pyplots MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务,为大语言模型客户端提供绘图规格、实现代码、库信息的上下文与工具访问能力,并通过 JSON-RPC 与客户端进行通信。该服务器负责资源管理、工具注册与执行、Prompt 模板的定义与渲染,以及会话管理与能力声明,支持多种传输协议以适配不同的集成场景。

AI与计算

Claw Recall MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供标准化的工具集与内存检索能力,允许本地或远程的 LLM 客户端通过 MCP 访问会话记忆、搜索结果、以及外部源捕获工具等功能,并支持 STDIO 与 SSE 等传输方式。

AI与计算

PlanExe MCP Server

PlanExe MCP Cloud 是一个基于 Model Context Protocol (MCP) 的后端服务实现,提供标准化的上下文与功能服务给 LLM 客户端。核心包含资源与数据访问、工具注册与执行、以及可渲染的 Prompt 模板。通过 JSON-RPC 与客户端通信,支持通过标准的 HTTP/流式 HTTP 以及本地/云端部署方式,提供会话管理、能力声明与安全认证,并实现下载令牌、日志与活动跟踪等能力,适用于将 PlanExe 的计划生成为上下文服务的一整套解决方案。

AI与计算

Forge MCP 服务器实现

基于 Forge 平台的 MCP(Model Context Protocol)后端实现,提供资源管理、工具注册与执行、Prompt 模板渲染等核心能力,通过 JSON-RPC 与多传输协议(如标准输入输出、Server-Sent Events、WebSocket)对接 LLM 客户端,实现跨会话的上下文服务与能力声明。

桌面与硬件

Parachord MCP 服务器

基于模型上下文协议(Model Context Protocol,MCP)的后端服务,标准化向外部LLM客户端提供资源、工具与提示模板的访问和执行能力,并通过JSON-RPC进行通信,支持多种传输方式以实现安全、可扩展的上下文服务。

商业系统

FluentCart MCP 服务器端实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具和提示模板的注册、管理与执行,允许通过 JSON-RPC 与任意 LLM 客户端进行上下文信息服务与外部功能调用,并支持多种传输方式与会话能力声明。

AI与计算

Emend MCP 服务端

基于 Model Context Protocol (MCP) 的服务器端实现,提供资源管理、工具注册及提示模板等能力,通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(stdio、SSE、WebSocket),为 LLM 应用提供可扩展的上下文服务和代码重构能力。

AI与计算

HVE Stem 服务器端 (MCP)

基于 Model Context Protocol(MCP)的后端服务,为大型语言模型客户端提供可读取的资源、可执行的工具、以及可渲染的提示模板等上下文能力,通过 JSON-RPC/MCP 协议实现与客户端的交互。

AI与计算

AIVI MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供对资源、工具和提示模板等核心能力的标准化访问。通过 JSON-RPC 与客户端通信,服务器负责资源管理、工具注册与执行,以及提示模板的定义与渲染,支持将语言规范与工具集成到 AI 客户端的上下文服务中。

AI与计算

claudex-mcp-permission-server

基于 Model Context Protocol (MCP) 的权限控制 MCP 服务器实现,提供一个可运行的 MCP 服务器,用于在 LLM 客户端与外部工具之间进行权限审批与执行控制。服务器通过 MCP 协议处理请求、注册工具并返回批准/拒绝结果,适用于在沙箱环境中对工具使用进行统一权限管理。

AI与计算

ChatML MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,使用 Claude Agent SDK 构建并暴露资源、工具及提示模板,通过 JSON-RPC 与 LLM 客户端进行交互,支持多传输协议并具备会话和能力管理能力。

AI与计算

Vivid MCP 服务器

基于 Model Context Protocol 的 MCP 服务器,将 LLM 客户端通过 JSON-RPC 接入 Vivid 运行时的控制接口,以统一管理资源、注册与执行工具,以及渲染与获取 Prompt 模板,提供对三域运行(GPU/GPU 纹理、音频、控制信号)的上下文服务。

网页与API

Advanced Memory MCP

面向 LLM 客户端的高性能MCP服务器,实现资源管理、工具注册与执行、以及Prompt渲染,通过JSON-RPC进行通信,支持多传输协议和可扩展生态。该仓库不仅提供MCP服务器端实现,还包含与前端Web应用的桥接组件和多种工具集合。

网页与API

svelte-grab MCP 服务端

基于模型上下文协议(Model Context Protocol,MCP)的后端服务实现,提供向 MCP 客户端暴露 HTTP/StreamableHTTP 传输的 MCP 接口,以及可选的 stdio 传输,支持从浏览器端抓取的组件上下文实时供 Claude Code 等 MCP 兼容代理读取,并提供多种 MCP 工具(读取元素上下文、撤销/重做、会话历史、可及性与渲染分析等)的访问入口。

AI与计算

Adjutant MCP 服务器

基于 Model Context Protocol 的 MCP 服务器端实现,提供资源管理、工具注册/执行、Prompts 渲染等能力,采用 JSON-RPC 与客户端进行通信,支持 SSE/WebSocket 等传输模式,供 LLM 客户端获得上下文与外部功能访问。

AI与计算

Dexto MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持多种传输协议并实现会话管理与能力声明。

开发者工具

CLEO MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)托管与数据访问、工具(Tools)的注册与执行、以及提示模板(Prompts)的定义与渲染;通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明与多传输通道,构建面向LLM应用的可扩展上下文服务框架。

AI与计算

Ditto MCP 服务器集合(Google Workspace 实现)

基于 Model Context Protocol 的 MCP 服务器实现,为 Ditto Assistant 提供本地上下文后端,整合 Google Workspace 的资源与工具,并通过 SSE JSON-RPC 与 Ditto 客户端通讯,支持工具注册、会话管理、Bearer 认证以及本地 ngrok 隧道等能力。

AI与计算

AgentGate MCP 服务端

基于模型上下文协议(MCP)的后端实现,提供资源、工具和提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端通信,支持流式传输与子进程传输,并能与 Claude Desktop 等 MCP 客户端无缝对接。

AI与计算

Autonomous MCP 后端服务器

基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供标准化的上下文资源、工具注册与执行能力,以及可定制的 Prompt 模板渲染;通过 JSON-RPC 进行通信,包含会话管理、能力声明,且支持多种传输协议(如 STDIO、SSE、WebSocket),为代码基地级别的上下文服务提供端到端的后端能力。

AI与计算

bitbank-genesis MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与 Prompt 的后端服务,向 LLM 客户端(如 Claude)以标准化 JSON-RPC 方式交互,支持 STDIO、SSE/WebSocket 及 HTTP 传输,提供比特币市场分析相关的分析工具和可视化能力。

AI与计算

codemem MCP服务器

基于 Model Context Protocol (MCP) 的后端服务实现,向大语言模型客户端提供资源管理、工具注册与执行,以及提示模板渲染等上下文服务,采用 JSON-RPC 风格接口进行通信,支持在本地 SQLite 存储中管理会话、记忆、工具输出等上下文信息。该仓库内含完整的 MCP 服务器实现及相关组件,可作为可运行的 MCP 服务端使用。

AI与计算

Nano-Coder MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端通信以支持多种传输协议。

开发者工具

Pare MCP 服务器集成平台

Pare 是一个面向开发者的 MCP 服务器集合,提供资源、工具和提示模板的结构化 JSON-RPC 接口,供大语言模型客户端以标准化方式获取上下文、数据访问与外部功能调用能力。

AI与计算

McpVanguard MCP 安全代理服务器

一个基于 Model Context Protocol(MCP)的服务器实现,充当人工智能代理与实际 MCP 服务器之间的拦截与保护层。通过 JSON-RPC 处理工具调用,请求与响应,整合规则引擎、语义分析、行为分析,并可将被阻断的请求上报至 VEX 审计系统,提供可扩展、可观测的 MCP 服务后端。

网页与API

Cubis Foundry MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、以及提示模板渲染,支持多传输协议与多会话的上下文服务,供 LLM 客户端通过 JSON-RPC 调用获取上下文与能力。

AI与计算

BC Telemetry Buddy MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供资源与工具管理、Prompt 注册,以及通过 JSON-RPC 进行与 LLM 客户端的安全对话,支持 stdio 与 HTTP 两种传输模式,适配 Copilot 等对 MCP 的场景需求。

AI与计算

GemiHub MCP Server Backend

基于 Model Context Protocol 的后端 MCP 服务器,实现资源、工具与提示模板的托管与管理,并通过 JSON-RPC 提供对外访问,供 LLM 客户端检索资源、调用工具、渲染提示并进行会话管理与能力声明。

网页与API

LCYT MCP 服务器(Python 实现)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及资源快照渲染等能力,采用 JSON-RPC 与 LLM 客户端通信,支持通过标准的 stdio/SSE 传输与多种客户端集成,用于向模型提供上下文信息和外部功能调用能力。

AI与计算

Ember MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 Ember 记忆资源、工具与提示模板的标准化管理与访问,并通过 JSON-RPC 与 MCP 客户端通信,支持会话管理、能力声明以及多传输协议接入,面向 LLM 客户端提供可扩展的上下文服务框架。

开发者工具

Decibel Tools MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供项目上下文、资源管理、工具执行和提示模板渲染等能力,支持多传输协议(stdio、HTTP、桥接等)以及插件化工具集,通过 JSON-RPC/HTTP 与客户端通信,具备会话管理、能力声明与安全可扩展的上下文服务框架。

AI与计算

Quiver MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端通过标准化的 JSON-RPC 方式提供资源、工具和 Prompt 的注册、访问与渲染能力,并支持会话管理与多传输协议(如 STDIO/HTTP)的 MCP 服务。

AI与计算

Solvr MCP 服务端

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行,以及可渲染的提示模板,采用 JSON-RPC 与 LLM 客户端通信,支持通过标准输入输出(stdio)对接多种 AI 客户端插件与工作流。当前实现覆盖初始化、工具列表以及工具调用等核心 MCP 场景,并附带一个可运行的工具集(solvr_search、solvr_get、solvr_post、solvr_answer、solvr_claim)。

AI与计算

skills.rs - Infinite Skills MCP Server

一个基于 Model Context Protocol (MCP) 的后端服务器实现,聚合多个上游 MCP 服务器与 Skills/Tools,提供统一的发现、执行和技能管理能力,并通过四个核心 MCP 工具对外暴露(search、schema、exec、manage)。这套实现同时支持多种传输模式(stdio、HTTP 等),并具备沙箱执行、WASM 支持、SQLite 持久化等企业级特性,适合作为 LLM 的上下文+能力服务端。

AI与计算

Cairn MCP 服务端

基于 Model Context Protocol 的后端服务器,提供资源管理、工具执行与提示模板渲染,并通过 JSON-RPC MCP 协议向 LLM 客户端提供可扩展的上下文服务,支持 STDIO、HTTP、WebSocket 等传输方式与 REST 辅助接口。

AI与计算

Agent Layer MCP 服务器框架

基于 Model Context Protocol(MCP)的后端框架,提供资源托管、工具注册与执行、以及基于模板的 Prompt 渲染,支持 JSON-RPC 通信与多传输协议(如 StdIO、SSE、WebSocket)以向 LLM 客户端提供上下文信息与外部功能。仓库不仅包含客户端示例,还实现服务器端能力、Prompts 及与客户端的集成运行逻辑。若要在实际环境中搭建 MCP 服务器,可使用内置的 MCP Prompts 服务器和通用服务器配置来对接不同的 MCP 客户端。

网页与API

GTM MCP Server

基于 Model Context Protocol 的服务器端实现,作为 MCP 后端为 LLM 客户端提供资源、工具、Prompts 的标准化上下文与功能服务,通过 JSON-RPC 与客户端通信,并支持多种传输方式的扩展与会话管理。

AI与计算

My AI Resources MCP 服务端集合

基于 Model Context Protocol (MCP) 的后端服务器实现集合,用于向大语言模型客户端提供统一的上下文服务,包括资源(Resources)的托管与访问、工具(Tools)的注册与执行,以及提示模板(Prompts)的定义与渲染。仓库内含 Memory Bank 与 Cursor Shortcuts 两个成熟的 MCP 服务器实现示例,均通过标准的 JSON-RPC 形式与客户端通信,并提供以Stdio等多种传输方式的支持。

AI与计算

AMReXAgent MCP Adapter

基于 Model Context Protocol (MCP) 的服务器端实现,用于通过 JSON-RPC 提供 AMReXAgent 的资源管理、工具注册/执行以及 Prompt 模板的渲染等上下文服务,并对外提供可扩展的传输方式(如 stdio)。该仓库中实现了一个真实的 MCP 服务器入口、工具注册、请求分发与执行通道,确保客户端能以统一的协议访问后端能力。

AI与计算

DURA MCP 服务器

基于模型上下文协议(MCP)的后端服务,向大语言模型客户端提供依赖分析、风险评估、工具执行和提示渲染等能力。通过 JSON-RPC 与客户端通信,支持资源管理、工具注册、Prompts 定义与多种传输通道(如 Stdio),实现对后端分析流程的标准化上下文服务。

AI与计算

Temple Vault MCP 服务器

基于 Model Context Protocol 的后端 MCP 服务器,实现资源、工具、提示模板等核心接口,使用 JSON-RPC 与客户端通信,向 LLM 客户端提供资源访问、工具调用与提示渲染能力,并支持多种传输协议(stdio、SSE、streamable-http 等)。

AI与计算

AnkiMCP Server Addon

在 Anki 内部运行的 MCP(Model Context Protocol)服务器端实现,暴露资源、工具与提示模板给本地 AI 客户端,通过本地 JSON-RPC 形式的协议进行资源读取、工具调用与提示渲染,支持跨主线程的安全调用与本地化部署。

AI与计算

Nosia MCP 服务器端

Nosia 的 Model Context Protocol(MCP)后端实现,负责向大语言模型客户端提供资源、工具与提示模板等上下文能力,并通过 MCP 协议规范化地对接外部服务与数据源,支持多租户场景、会话状态管理以及多种传输方式(如 STDIO、SSE、WebSocket),以实现对外部能力的扩展与整合。该项目不仅具备服务端管理能力,还通过服务器端的工具、提示和资源管理,促进 LLM 与外部系统的无缝交互。

网页与API

Unicon MCP 服务器

基于模型上下文协议(MCP)的后端服务器,向大语言模型客户端提供资源管理、工具执行与提示模板的统一上下文服务,并通过 JSON-RPC 与客户端进行通信。

AI与计算

StackRox MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供统一的上下文信息与功能入口。服务器负责托管与管理资源、注册与执行工具、定义与渲染提示模板,并通过 JSON-RPC 风格的协议与客户端交互,支持多种传输方式(如 HTTP/1.1 桥接、WebSocket、STDIO),实现安全、可扩展的上下文服务框架。目前处于开发者预览阶段,功能与接口可能在后续版本中变动。

网页与API

Agent Framework MCP Server 集合

基于 Model Context Protocol (MCP) 的后端服务实现,为大型语言模型客户端提供统一的上下文资源、工具调用和提示模板渲染能力,并通过 JSON-RPC 进行通信,支持多服务器协作(如 JIRA、GitHub 及任务队列等)。

AI与计算

ShipSec Studio - MCP 测试服务器

一个基于 Model Context Protocol(MCP)的简单可运行 MCP 服务器示例,用于测试客户端对 MCP 的调用与交互,提供一个单工具(get_weather)的测试服务并通过标准输入输出(stdio)与客户端通信。

AI与计算

Revit MCP Server

基于 Model Context Protocol 的 Autodesk Revit 后端服务器,提供资源管理、工具注册/执行和提示模板渲染,并通过 WebSocket 与 LLM 客户端进行 JSON-RPC 风格的上下文服务交互。

AI与计算

Ark UI MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,向 MCP 客户端提供资源、工具和提示模板等上下文能力,支持通过 JSON-RPC 与客户端通信,并可通过多种传输方式(stdio、SSE/HTTP)进行交互。

桌面与硬件

FRM-MCP 服务器(Formal Reasoning Mode)

基于 Model Context Protocol 的 FRM 后端实现,作为 FRM Desktop 应用的一部分,提供 MCP 服务端能力:注册并执行 FRM 的工具、托管与访问资源、渲染与提供 Prompt 模板等,并通过 JSON-RPC 与客户端通信。当前实现将 MCP 服务运行在 Electron 的主进程中,使用 InMemoryTransport 进行本地通信,适合作为本地集成的 MCP 服务端示例。

AI与计算

Chakravarti 模型上下文后端服务 (MCP)

基于 Model Context Protocol 的后端服务器实现,向大型语言模型客户端提供资源管理、工具注册/执行、以及可渲染的 Prompt 模板,并通过 JSON-RPC 进行通信,支持标准输入输出(stdio)传输等多种传输协议,以实现统一的上下文服务和外部功能访问。

开发者工具

StoreConfig MCP Server

基于 Model Context Protocol (MCP) 的后端实现,作为 StoreConfig 的 MCP 服务器,向 LLM 客户端提供 JSON 结构化的资源、工具和上下文内容,支持通过 JSON-RPC 的请求/响应方式进行资源查询、工具执行、以及对配置模板的交互渲染,帮助 AI 辅助的配置管理场景。

网页与API

Orderly Network MCP 服务器

基于模型上下文协议(MCP)的后端服务器,向LLM客户端提供资源管理、工具执行和提示模板等上下文信息,支持多传输协议(如 Stdio、HTTP/WebSocket),通过 JSON-RPC 进行请求-响应交互。该实现覆盖资源、工具、Prompts 的注册、查询与渲染,以及会话管理与安全能力声明等核心功能,构成可扩展的对话上下文服务框架。

AI与计算

eBay MCP 服务器端

基于 Model Context Protocol 的服务器端实现,作为后端上下文服务向大型语言模型客户端提供资源、工具与提示模板等能力,支持多传输协议(如 STDIO、HTTP、WebSocket),通过 JSON-RPC 与客户端进行交互,包含会话管理、能力声明与工具/资源模板的注册与渲染。

网页与API

Sherpa MCP 服务器集成实现

基于 Model Context Protocol(MCP)的后端服务器集合,提供资源管理、工具执行、以及可自定义的提示模板渲染等功能,通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议与安全、可扩展的上下文服务。

AI与计算

J-Code MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务,作为 MCP 服务器向 LLM 客户端提供资源管理、工具注册与执行、以及 Prompt 模板渲染等上下文能力;通过 JSON-RPC(NDJSON/多传输协议)与客户端通信,支持会话管理、模型切换、跨服务协同等扩展能力,适配多种传输协议(如 Stdio、SSE、WebSocket)以为 LLM 应用提供安全、可扩展的上下文服务框架。

网页与API

Clawdentials MCP 服务器

基于 Model Context Protocol 的完整后端服务器实现,提供资源、工具、提示模板等能力,并通过 JSON-RPC 与 LLM 客户端通信,后端使用 Firestore 作为数据存储,支持多种传输协议。

AI与计算

Cronitor MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务,提供资源与工具的注册、对接外部数据源,并通过 JSON-RPC/stdio 方式与 MCP 客户端通信,以支持 LLM 场景下的上下文、工具调用与提示模板渲染。

AI与计算

Codebrain MCP 服务器

基于 Model Context Protocol (MCP) 的后端上下文服务实现,提供资源管理、工具注册与执行、以及 Prompts 渲染等能力,通过 JSON-RPC 与客户端通信,支持标准传输(如 Stdio 传输)以提供对话上下文和外部功能的统一访问。

AI与计算

Mira MCP Server

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具调用与提示模板渲染的标准化上下文服务,并通过 JSON-RPC 与 Claude Code 等客户端交互,支持可扩展的传输模式与会话管理。

开发者工具

mockd MCP 服务端

基于 MCP(Model Context Protocol)的后端服务器,实现对资源、工具和提示模板的统一管理与渲染,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多传输协议以适配不同应用场景。

AI与计算

Farnsworth MCP 服务器

基于 Farnsworth 的 Model Context Protocol(MCP) 服务端实现;通过 MCP 协议向 MCP 客户端暴露资源管理、工具注册/执行以及提示模板等能力,支持多传输协议(如 Stdio、SSE、WebSocket),并实现会话管理与能力声明,提供一个安全、可扩展的上下文服务后端。

AI与计算

CTX MCP 服务端实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具与提示模板的托管、注册与渲染,支持基于 JSON-RPC 的通信、会话管理以及多种传输协议(如 STDIO、HTTP、SSE)以供 LLM 客户端调用。

AI与计算

Plan Cascade MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 Plan Cascade 的 MCP 服务端,向 LLM 客户端提供标准化的资源管理、工具注册与执行,以及 Prompt 模板渲染等能力,采用 JSON-RPC 进行请求/响应通信,支持多传输协议、会话管理与能力声明,确保安全、可扩展的上下文服务。

AI与计算

AudioReader MCP Server

基于 Model Context Protocol (MCP) 的 AudioReader 后端实现,暴露工具给 LLM 客户端以读取资源、调用工具、获取并渲染 Prompts 等,便于与 Claude/OpenAI 等对接进行上下文服务和功能调用。

AI与计算

Stitch MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端实现,提供对资源、工具与提示模板的托管、注册与渲染能力,并通过 JSON-RPC 与 LLM 客户端通信。内置会话管理、能力声明以及支持多传输协议的 MCP 服务器代理功能,面向大语言模型应用提供安全、可扩展的上下文服务框架。

AI与计算

SystemPrompt MCP 服务器套件

基于 SystemPrompt 的 MCP 服务器实现集合,提供资源管理、工具注册与执行、以及提示模板渲染等 MCP 核心能力,供大语言模型客户端通过 JSON-RPC 获取上下文信息与外部功能,并支持多种传输与会话场景。仓库中包含多个 MCP 服务器实现(如 systemprompt、moltbook、content-manager),共同构成一个可扩展的 MCP 后端生态。

开发者工具

Mist MCP Server

基于 Model Context Protocol 的后端服务器,向 LLM 客户端以标准化方式提供上下文资源、可执行工具和可渲染的 Prompt 模板,支持多传输协议(如 STDIO、HTTP、SSE、WebSocket),并实现会话管理与工具加载策略。

AI与计算

ha-mcp

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供 Home Assistant 的上下文资源、工具与 Prompts,通过 WebSocket/REST 等标准接口实现资源管理与工具执行等核心能力。

AI与计算

Codex MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板的渲染,使用 JSON-RPC 与 MCP 客户端通信,支持通过 Stdio 传输等多种通道进行上下文服务交互。

AI与计算

Tweek MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与管理、工具注册与执行、以及 Prompt 模板渲染等核心功能,能够通过 JSON-RPC 与 LLM 客户端进行上下文信息与功能的标准化交互。服务器端负责会话管理、能力声明与多传输通道支持(如 Stdio、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

Ripperdoc MCP 服务器

基于模型上下文协议(Model Context Protocol,MCP)的后端服务器,向大语言模型客户端提供资源管理、工具注册/执行和提示模板渲染等能力,并通过 JSON-RPC 进行通信与协作,支持多传输协议(如 Stdio、SSE、WebSocket)和会话管理,提供安全、可扩展的上下文服务框架。

AI与计算

RationalBloks MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供 18 个后端工具、资源管理、工具注册与执行,以及提示模板支持,支持 STDIO 与 HTTP 两种传输模式,面向对接大语言模型的上下文信息与外部功能服务。

开发者工具

Grafema MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型(LLM)客户端提供资源托管、工具注册与执行、以及 Prompt 模板渲染等上下文服务;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多传输协议(如 StdIO、SSE、WebSocket)进行安全、可扩展的上下文服务交互。

网页与API

Kubescape MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现资源(Resource)托管、工具(Tools)注册与执行,以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,提供安全、可扩展的上下文服务,便于 LLM 进行集成查询和调用外部功能。

AI与计算

Tabularis MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与数据访问、工具注册与执行、以及用于 LLM 的 Prompt 模板渲染。通过 JSON-RPC 与客户端通信,当前实现采用标准输入输出(Stdio)传输,读取客户端请求并输出响应;同时具备会话管理、能力声明与资源/工具渲染等核心能力,便于外部代理或图形化客户端接入以提供上下文信息与外部功能调用。

AI与计算

Linggen MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供以标准化方式向 LLM 客户端提供上下文信息和功能的能力。通过 JSON-RPC 与客户端通信,核心包含工具注册/执行、提示模板渲染,以及与资源/查询接口的集成。当前实现使用 stdio 传输,在服务端对接 Linggen 后端 API 提供的能力,支撑 LLM 在设计、索引与查询场景中的上下文服务。

AI与计算

Inspector:基于模型上下文协议的本地MCP服务器实现

一个完整的MCP服务器实现,提供资源、工具、提示模板等上下文服务,支持JSON-RPC通信、会话管理与多传输协议,面向本地开发、调试和集成OpenAI/Claude等LLM应用。

AI与计算

Koder MCP后端服务器实现

基于 Model Context Protocol (MCP) 的后端服务,集成资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多种传输方式(stdio、SSE、HTTP)以提供可扩展的上下文服务框架。

AI与计算

Echo Noise MCP 服务端实现

基于模型上下文协议(MCP)的后端实现,提供资源、工具与 Prompt 的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输模式(如 Stdio、SSE、WebSocket)以及会话与能力声明,并可通过 MCP 客户端接入扩展能力。该仓库在后端 Go 语言实现了核心服务,并在 README 提供了配套的 MCP 客户端服务(MCP 服务器端 bundles/示例及接入文档)。

AI与计算

Skrills MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源托管与访问、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 进行与 LLM 客户端的通信,支持多传输协议用于上下文服务的扩展性。

AI与计算

NTS_MCP_FS 服务器端

基于模型上下文协议(MCP)的企业级后端服务器实现,提供资源管理、工具注册与执行、提示模板渲染等 MCP 服务,通过 JSON-RPC 风格与 LLM 客户端通信,支持会话隔离、能力声明以及多传输协议的上下文服务框架。

AI与计算

UDS-POS MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供标准化的资源(Resources)、工具(Tools)以及提示模板(Prompts),通过 JSON-RPC 与 LLM 客户端通信,支持多传输通道并对接 Supabase 数据源,构建面向 AI 赋能的上下文服务框架。该仓库包含一个完整的 MCP 服务器实现(含工具定义、资源暴露、提示模板以及 Prompt 执行逻辑),并以 Stdio 传输方式提供服务入口。

AI与计算

Docmost MCP Bridge 与 MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现与桥接组件,允许 LM 模型/代理通过标准 JSON-RPC 方式读取资源、调用工具、获取与渲染 Prompt 模板等,核心包含一个可运行的 MCP 服务端以及将 Cursor 等客户端接入 Docmost 的桥接层。

AI与计算

Claude Swarm MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,用于托管资源、注册与执行工具、渲染 prompts,并通过 JSON-RPC/事件流等协议为 LLM 客户端提供标准化的上下文服务与能力扩展。

AI与计算

Singular Blockly Model Context Server

基于 Model Context Protocol (MCP) 的后端服务器,为 LLM 客户端提供可管理的资源、可注册的工具和可渲染的 Prompt 模板,通过 JSON-RPC 进行通信,支持多种传输协议(如 Stdio、SSE、WebSocket),并实现会话管理与能力声明等功能。

开发者工具

AICode-MCP 服务端核心

基于 Model Context Protocol (MCP) 的服务器端实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力;通过 JSON-RPC 形式与客户端通信,支持多传输协议(StdIO、HTTP、SSE)以向大型语言模型(LLM)客户端提供上下文信息与功能,便于搭建可扩展的 MCC(MCP)后端服务。

AI与计算

Perplexity WebUI MCP 服务端

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,暴露 Perplexity WebUI 的查询能力给大语言模型客户端,通过 FastMCP 提供工具接口,支持会话、模型映射与网页检索等能力。

AI与计算

Super AI Plugin Hub

基于 Model Context Protocol (MCP) 的服务器端框架,聚合、管理资源与工具,并通过 JSON-RPC 将上下文、工具与提示暴露给 LLM 客户端,同时支持本地与远程 MCP 服务器的代理与协作。

AI与计算

TradeArena 模型上下文服务端 (MCP风格后端)

基于 Model Context Protocol 的 MCP-like 服务器实现,提供资源、工具和提示模板等上下文服务,供大语言模型(LLM)客户端以标准化 JSON-RPC 方式读取资源、执行工具、渲染提示等能力,并通过 Sui 区块链进行交易签名与记录。该仓库实现了完整的服务端代码及多类别工具集,支持本地 stdio 传输测试。

AI与计算

clai MCP 服务器框架

基于 Model Context Protocol (MCP) 的服务器框架,提供对 MCP 请求/响应的处理能力、资源与工具注册管理,以及通过 JSON-RPC 与客户端进行通信的多进程服务器支持与会话管理。

网页与API

MCP Outlet – 通用 MCP 服务器运行时与沙箱代理

基于 Model Context Protocol (MCP) 的后端运行时与代理,提供资源、工具和提示的统一管理,并通过 JSON-RPC 与 MCP 客户端通信,支持多传输协议(stdio、SSE、WebSocket)等,能够在沙箱中运行并托管任意 MCP 兼容的服务器。*

AI与计算

Dingo MCP Server

基于模型上下文协议(MCP)的后端服务器,向LLM客户端标准化提供资源管理、工具注册/执行以及可自定义的提示模板渲染,通过 JSON-RPC 进行通信与协作。

AI与计算

tempo-mcp

基于模型上下文协议(MCP)的服务器端实现,向大型语言模型客户端提供 Tempo 区块链的资源、工具和提示模板,并通过 JSON-RPC 进行交互,支持多传输协议与严格的会话与安全机制。

AI与计算

TIA MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管与管理、Prompt/模板的渲染,以及通过 JSON-RPC 与客户端通信的能力,支持多传输通道如 STDIO、WebSocket 等,帮助 LLM 客户端以标准化方式获取上下文、数据访问和外部功能调用。

AI与计算

YouTube Content Agency MCP 后端集合

基于模型上下文协议(MCP)的后端服务器集合,提供对资源、工具和提示模板的托管与执行,并通过 JSON-RPC 与 MCP 客户端进行通信,支持多种传输方式,适用于为大语言模型(LLM)客户端提供上下文与功能服务的后端架构。仓库内包含 Python 与 TypeScript 实现的多个 MCP 服务器实例及客户端示例,覆盖新闻、YouTube 工具箱、Notion 驱动的框架资源等场景。

AI与计算

AgentPool MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,面向大语言模型客户端提供资源管理、工具注册与执行,以及提示模板的渲染等核心能力,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明及多传输协议(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

AI与计算

Trinity MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具、提示以及跨代理协作的标准化上下文服务,支持多传输协议、会话与权限管理、以及多代理系统的编排能力。

AI与计算

Stim Model Context Protocol (MCP) 服务器

基于 Model Context Protocol 的后端服务器实现,提供资源与工具的托管、Prompt 模板的渲染,以及通过 JSON-RPC 与 LLM 客户端进行通信的能力,支持标准化的会话管理与多传输通道(如 stdio)。

AI与计算

MCP Forge Python

基于Python实现的生产级模型上下文协议(MCP)服务器模板,提供上下文管理、工具调用和Prompt交互功能,并集成了OAuth 2.0和JWT认证。

AI与计算

MCP 思维工具服务器

基于 MCP 协议,为大型语言模型提供结构化思维空间,增强复杂推理和决策能力。

数据库与文件

SQLite MCP Server

通过Model Context Protocol (MCP)标准,允许AI客户端安全、结构化地访问和操作SQLite数据库。

开发者工具

automcp

AutoMCP是一个轻量级、可配置的MCP服务器,支持通过YAML/JSON配置服务和操作,并提供基于标准协议的模型上下文服务。