返回首页

"资源与工具管理" 标签

99 个结果

标签搜索结果

AI与计算

succ MCP 服务器实现

基于 Model Context Protocol(MCP)的完整服务器实现,提供资源、工具、提示模板等的标准化后端服务,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多种传输方式。

网页与API

Axon MCP Server

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,旨在为 LLM 客户端提供标准化的上下文服务:托管资源、注册和执行工具,以及定义与渲染提示模板,并通过 HTTP JSON-RPC 与客户端进行交互,支持会话管理与多传输模式(如 HTTP/StdIO)。

AI与计算

Aura MCP Server(Rust实现)

Aura 是基于 Rust 的 MCP 服务器实现,提供资源、工具和提示的标准化管理与执行,并通过 JSON-RPC 在标准输入输出等传输下与 LLM 客户端通信,支持多种传输协议以提供可扩展的上下文服务。

AI与计算

Agenticore MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务,提供资源托管与访问、工具注册与执行、以及可定制的 Prompt 模板渲染,统一通过 JSON-RPC 与客户端交互,并支持多种传输方式(HTTP/SSE/stdio)以实现对大语言模型客户端的上下文与功能服务。

AI与计算

Docker Agent MCP 服务器

基于 MCP 的后端服务器实现,提供资源、工具、提示模板等标准化上下文服务,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(stdio、HTTP、SSE、WebSocket 等)。

AI与计算

Nexus MCP for Obsidian

基于 Model Context Protocol(Model Context Protocol, MCP) 的 Obsidian 插件后端实现,作为 MCP 服务器向本地或远程 LLM 客户端提供资源管理、工具注册与执行、以及可自定义的 Prompt 模板渲染等能力;通过 JSON-RPC 与客户端通信,支持多传输通道(如 Stdio、SSE、WebSocket),实现会话管理、能力声明,并可在多 Vault 场景下独立运行本地化上下文服务。

AI与计算

Stock Data MCP Server

基于 Model Context Protocol(MCP)的后端服务实现,为 LLM 客户端提供标准化的上下文管理能力:托管资源和数据、注册并执行工具、定义并渲染 Prompt 模板,采用 JSON-RPC 与客户端通信,支持会话管理与多传输协议的扩展能力,为面向大语言模型的上下文服务提供安全、可扩展的服务端框架。

AI与计算

duh MCP 服务器实现

基于 Model Context Protocol 的后端服务,作为 MCP 客户端的上下文信息与功能提供端,托管资源、注册并执行工具、定义并渲染 Prompt 模板,并通过 JSON-RPC 与前端或 LLM 客户端进行通信,支持多种传输协议以实现安全、可扩展的上下文服务。

AI与计算

IBM Cloud Logs MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行,以及可渲染的 Prompt 模板,面向 LLM 客户端以标准化 JSON-RPC 方式获取上下文信息与外部功能。

AI与计算

Agoragentic MCP 服务器实现

基于 Model Context Protocol (MCP) 的服务器实现,用于向 MCP 客户端(如 Claude Desktop、VS Code、Cursor 等)暴露 Agoragentic 市场的资源、工具与提示模板,并通过 JSON-RPC 进行请求/响应与通知。该服务器具备注册、执行、查询能力等核心 MCP 功能,可为 LLM 应用提供统一的上下文与外部能力接入。

AI与计算

Candlekeep MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,作为 LLM 客户端的上下文服务提供资源管理、工具注册/执行、以及 Prompt 模板的渲染与管理,并通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 等传输协议,具备会话管理、能力声明与安全访问控制等特性。

AI与计算

Panda MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,暴露 Panda 的资源、工具与提示模板给 LLM 客户端,通过 JSON‑RPC 进行通信,支持异步任务、日志资源等功能,作为 MCP 客户端的上下文与能力服务端。

AI与计算

Idea Reality MCP 服务端

基于模型上下文协议(MCP)的后端实现,提供资源与工具管理、提示模板渲染以及与客户端的 JSON-RPC/SSE/WebSocket 通信,用于向大语言模型(LLM)客户端提供上下文信息和外部功能入口。

开发者工具

Rainy Updates MCP 服务端

基于 MCP(Model Context Protocol)的本地后端服务器,实现 Resources、Tools、Prompts 的注册、托管与渲染,并通过 JSON-RPC 与客户端(如 Claude Desktop、Cursor 等 MCP 客户端)进行上下文信息和功能的访问与协作,支持多传输协议(stdio、HTTP 等)以实现对 LLM 的上下文服务。

AI与计算

MCP Server MAS Sequential Thinking

基于 Model Context Protocol 的 MCP 服务器实现,采用多智能体系统(MAS)协同进行序列思维与推理任务的后端服务,通过 JSON-RPC 与客户端通信,提供资源、工具和提示的管理与渲染。

AI与计算

GNO MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,为本地知识引擎提供标准化的资源管理、工具注册与执行、以及 Prompt 模板渲染,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议与会话管理,适用于离线或私有环境的上下文服务场景。

开发者工具

Enable Banking MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供银行数据资源、工具与提示模板的统一访问接口,通过 JSON-RPC 与 AI 客户端通信,并支持本地会话持久化和图形化 UI 渲染。

开发者工具

Better Godot MCP

基于 Model Context Protocol 的 Godot MCP 服务器端实现,提供资源管理、工具注册与执行、提示模板渲染等能力,并通过 JSON-RPC 与客户端通信,支持会话管理与跨传输通道。该仓库实现了一个较为完整的服务器端框架,集成了对 Godot 引擎的检测、资源/场景/脚本等的管理工具,以及多类开发者工具的背后逻辑。适合作为面向 AI 代理的上下文服务后端。

网页与API

PEAC MCP 服务器实现(归档版)

基于 Model Context Protocol (MCP) 的后端实现,提供通过 JSON-RPC 方式与客户端通信的 MCP 服务器能力,核心职责包括托管资源、注册与执行工具、以及定义与渲染提示模板,支持跨组织的上下文服务与证据管理。

AI与计算

Granzion MCP 服务器集成套件

基于 Model Context Protocol (MCP) 的后端服务器集合,提供 Resources(资源)、Tools(工具) 和 Prompts(提示) 的标准化管理与 JSON-RPC 通信,用于向大语言模型客户端提供可扩展的上下文、数据访问和外部功能调用能力。

AI与计算

IBM Cloud Logs MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,用于为大语言模型客户端提供规范化的上下文服务。核心功能包括托管与管理资源(Resources)、注册与执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与客户端进行通信。服务器负责会话管理、能力声明,支持多传输协议(例如 Stdio、SSE、WebSocket),实现对云日志的上下文化访问与功能扩展。

AI与计算

Commandable MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端提供资源管理、工具注册与执行、以及可定制的 Prompt 模板渲染等上下文服务,支持 JSON-RPC 通信并可通过 STDIO、HTTP、SSE、WebSocket 等传输协议接入客户端。

AI与计算

HealthReporting MCP 服务器

基于 Model Context Protocol (MCP) 的健康数据后端服务器,向大型语言模型(LLM)客户端以标准化格式提供资源访问、工具执行与提示渲染能力,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议接入,以实现对健康数据的上下文提供与功能扩展。

开发者工具

Judges Panel MCP 后端服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供39个专门评审维度的资源与工具管理、提示模板渲染,以及面向 LLM 客户端的上下文评审能力;通过 JSON-RPC 与客户端通信,支持多传输协议(如 Stdio、SSE、WebSocket),实现对资源、工具、Prompts 的托管、注册、执行与渲染,便于在 Copilot、Claude、Cursor 等大模型助手中进行高质量的代码审查和上下文服务。

AI与计算

Smart AI Bridge MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 LLM 客户端的上下文服务提供者,托管与管理资源(Resources)、注册并执行 Tools、定义与渲染 Prompt 模板。通过 JSON-RPC 与 Claude Code 等客户端进行通信,提供会话管理、能力声明,以及可扩展的传输协议支持(如 Stdio、SSE、WebSocket),实现跨后端的智能路由、 council(多后端共识)等 MCP 功能,形成稳定、可扩展的后端上下文服务框架。

网页与API

peon-ping MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的管理、JSON-RPC 通信与多场景部署能力,能够让 LLM 客户端通过标准接口调用音效资源、获取 Pack 信息并执行音频播放等功能。

AI与计算

PePeRS MCP Server

PePeRS MCP Server 是基于 Model Context Protocol (MCP) 的后端实现,面向 LLM 客户端提供标准化的上下文服务,包括资源管理、工具注册/执行以及可渲染的 Prompt 模板,通过 JSON-RPC/HTTP+SSE 等传输与客户端进行通信,支持多种传输协议与会话管理,是面向学术领域大模型应用的上下文服务框架。

AI与计算

nano-claw

基于 Model Context Protocol (MCP) 的服务器实现,向 LLM 客户端提供资源、工具和提示模板,并通过 JSON-RPC 等协议实现标准化的上下文服务与交互。

网页与API

Qualys 安全上下文 MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供资源、工具、提示模板等上下文服务,通过 JSON-RPC 与大语言模型客户端交互,整合 Qualys 安全数据并支持模块化扩展。

AI与计算

Forge MCP 服务器实现

基于 Forge 平台的 MCP(Model Context Protocol)后端实现,提供资源管理、工具注册与执行、Prompt 模板渲染等核心能力,通过 JSON-RPC 与多传输协议(如标准输入输出、Server-Sent Events、WebSocket)对接 LLM 客户端,实现跨会话的上下文服务与能力声明。

AI与计算

Plexo MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,作为 LLM 客户端的上下文提供与能力服务中心,负责托管资源、注册与执行工具,以及管理提示模板、会话与安全性策略。通过 JSON-RPC 与客户端通信,支持 HTTP 传输与 Stdio 传输,适用于在生产环境中为 LLM 提供可扩展的上下文与功能服务。

AI与计算

MoneyBin MCP Server

基于 Model Context Protocol 的后端服务器实现,提供资源、工具和提示模板等接口,通过 JSON-RPC 与 AI 客户端通信,运行在本地 DuckDB 数据库之上,支持只读查询与受控写操作,适用于本地私有化的上下文服务与分析工具链。

AI与计算

APTL 基于 Model Context Protocol 的 MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行,以及通过 JSON-RPC 与客户端进行通信的能力,支持会话管理、能力声明与多传输通道的扩展性,用于将 AI 客户端(LLM)接入到包含资源、外部工具以及可定制提示的实验环境中。

AI与计算

flompt MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,提供对话式上下文管理、资源/工具的注册与执行,以及提示模板的渲染与输出,面向 Claude Code 等 MCP 客户端以 JSON-RPC 风格进行资源访问、工具调用和提示生成。

AI与计算

ctx-sys MCP 服务器

基于 Model Context Protocol (MCP) 的本地化上下文服务后台,提供资源、工具与提示模板管理,并通过 JSON-RPC 等协议与 LLM 客户端进行标准化通信,支持会话管理、能力声明以及多种传输方式以便嵌入式智能应用使用。

开发者工具

GitLab CLI MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,集成资源、工具、提示模板等能力,提供标准化的上下文服务以供 LLM 客户端调用,并通过 Stdio 传输支持快速本地测试与集成。

AI与计算

Civ6 MCP Server

基于 Model Context Protocol (MCP) 的 Civilization VI 服务器实现:为语言模型客户端提供标准化的游戏上下文、资源/工具/提示等能力,通过 JSON-RPC(stdio 传输)与 Civ6 FireTuner 进行交互,并在服务器端提供日记、地图捕获、空间感知等扩展服务。

网页与API

Huly MCP服务器

基于 Model Context Protocol 的后端服务器实现,提供资源、工具与提示模板的统一上下文服务,支持多传输协议(stdio、HTTP 等)并通过 JSON-RPC 与 LLM 客户端通信,适用于 Huly 集成场景。

AI与计算

mcpx MCP 服务器实现与管理框架

基于模型上下文协议(MCP)的后端服务器实现,提供资源与工具的托管与管理、提示模板渲染,以及通过 JSON-RPC 与客户端进行的数据交互,支持守护进程模式、会话管理和多传输通道,适用于将 MCP 服务暴露给大型语言模型(LLM)客户端的场景。

AI与计算

PeeperFrog Create MCP 服务器

基于 Model Context Protocol (MCP) 的本地化后端服务集合,提供资源管理、工具注册与执行,以及 Prompts 渲染等能力,面向 LLM 客户端通过 JSON-RPC 进行标准化上下文与功能访问,并支持多种传输路径与安全部署。该仓库实现了 Image 生成和 LinkedIn 发布等 MCP 服务的服务端逻辑,与 Claude 等客户端进行无缝集成。

AI与计算

PPT Generator MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源托管与管理、工具注册与执行、以及 Prompt 模板的渲染与管理等能力,供 LLM 客户端通过 JSON-RPC 进行资源读取、工具调用与 Prompt 获取等上下文服务。

AI与计算

Nestr MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器,为 AI 助手提供工作区上下文、资源、工具和提示模板的标准化访问,采用 JSON-RPC 与客户端通信,支持多传输协议(stdio、SSE、WebSocket 等)以便向 LLM 客户端提供安全、可扩展的上下文服务。

AI与计算

DarkMatter

基于模型上下文协议(MCP)的开源后端服务器,向大语言模型客户端以标准化方式提供资源管理、工具注册/执行与提示模板渲染,支持 JSON-RPC 风格通信、会话管理与多传输协议(stdio、HTTP/WS 等)。

AI与计算

Crust MCP网关服务器

Crust 是一个本地的 Model Context Protocol 网关后端,通过 JSON-RPC 与 MCP 客户端通信,提供资源、工具、提示模板等上下文服务,并在网关层实现安全规则拦截,支持多传输协议(如 Stdio、SSE、WebSocket)的接入与扩展。

AI与计算

Claude Code Harness MCP 服务器集成(Serena MCP)

基于 Model Context Protocol (MCP) 的后端实现,作为 Claude Code Harness 的核心服务之一,负责托管资源(Resources)、注册及执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与 LLM 客户端进行标准化交互,提供上下文信息、数据访问与外部功能调用等能力,支持多种传输方式(如标准输入输出、SSE、WebSocket 等)以实现安全、可扩展的后端上下文服务框架。

AI与计算

PMCP Progressive MCP 网关服务器

PMCP 是一个基于模型上下文协议(MCP)的后端网关服务器,提供资源、工具、提示的管理与执行,支持多种传输协议(stdio、SSE、HTTP),并实现渐进式工具暴露、缓存描述、及安全策略等功能,供大语言模型客户端使用上下文服务。

开发者工具

MCP Observer / WebMCP Server — 基于 MCP 的后端服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具和提示模板等能力的注册、执行与渲染,并通过 JSON-RPC 与 MCP 客户端通信;核心组件包含一个可运行的 MCP 服务器、能力注册与同步、以及与 GUI 后端的桥接,使 LLM 客户端能够以标准化方式获取上下文数据、调用外部工具与渲染 Prompt。

AI与计算

ChingTech MCP 服务器(Model Context Protocol 服务端)

基于 MCP 架构的后端服务器,向 LLM 客户端标准化提供资源、工具和提示(Prompts)等上下文与能力,通过 JSON-RPC 进行请求/响应,并支持多传输协议(如 Stdio/SSE/WebSocket)与会话管理,用于构建安全、可拓展的 AI 应用后台。

AI与计算

mcp-front

基于 Model Context Protocol (MCP) 的后端网关实现,作为 MCP 服务器的前端网关,提供对资源、工具和提示模板的托管与渲染,支持 JSON-RPC 通信、会话隔离及多传输协议(如 STDIO、SSE、HTTP 流等)的接入,旨在为 LLM 客户端(如 Claude)提供统一、可扩展的上下文服务。

AI与计算

Zen MCP Server

基于 Model Context Protocol (MCP) 的后端服务端实现,提供资源、工具、提示模板的注册、执行与渲染,并通过 JSON-RPC 与 MCP 客户端进行通信,支持会话管理、能力声明,以及资产的管理与扩展。

AI与计算

Jaz AI MCP 服务端

基于 Model Context Protocol (MCP) 的本地后端服务器实现,提供资源、工具与提示模板等上下文服务,并通过标准的 JSON-RPC 串行化与客户端交互,支持 STDIO 传输。

AI与计算

Codegraph MCP 服务器

基于 Model Context Protocol 的本地化后端服务器,提供代码依赖图的资源、工具与 Prompts;通过 JSON-RPC 与 LLM 客户端交互,支持单仓库或多仓库模式,提供资源访问、工具执行、Prompt 渲染等能力,便于在 AI 代理中查询代码结构、执行外部功能和获取定制化对话模板。

开发者工具

ralph-starter MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供资源(Resource)、工具(Tool)注册与查询、以及提示模板(Prompt)的管理与渲染;通过 JSON-RPC 与 MCP 客户端通信,支持会话管理、能力声明,并实现以 STDIO 为传输的 MCP 服务器,作为 LLM 客户端的上下文服务框架。该仓库实现了完整的 MCP 服务端逻辑,可与 Claude Desktop、Cursor 等 MCP 客户端协同工作,以标准化方式提供资源、工具与提示信息。

AI与计算

AdaptivMCP

AdaptivMCP 是一个自托管的 MCP 服务器实现,集合了 GitHub/Render 自动化工具、资源管理、工具注册与执行,以及提示模板渲染等功能,并通过 JSON-RPC 与 LLM 客户端通信。支持多传输协议(Streamable HTTP / SSE),并提供注册/诊断 UI,方便与 OpenAI/ChatGPT MCP 连接器对接与调试。

网页与API

git-steer MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的管理与渲染,并通过 JSON-RPC 与 LLM 客户端交互,支持在云端对 GitHub 资源与自动化工作流进行上下文服务。

开发者工具

Census MCP 服务端(Open Census MCP Server)

基于 Model Context Protocol 的后端服务,向大语言模型客户端提供资源(Resources)、工具(Tools)和提示模板(Prompts)的标准化上下文服务。通过 JSON-RPC 与客户端通信,服务器负责会话管理、能力声明,以及对资源、工具和提示进行托管、注册与渲染,支持多传输协议的接入以实现灵活的后端上下文服务框架。

网页与API

CamoFox MCP — 基于 MCP 的浏览器自动化后端服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,封装 CamoFox 浏览器服务,通过 JSON-RPC 提供资源管理、工具执行和提示模板等能力,支持与大语言模型(LLM)进行标准化上下文交互与扩展能力暴露。

AI与计算

Project Orchestrator MCP 服务端

基于 MCP 协议的后端服务,为大语言模型客户端统一提供资源、工具和提示模板的上下文服务,支持多传输协议、会话管理与可扩展的工具与模板渲染能力。

AI与计算

ralph-starter MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具和提示模板等上下文能力,面向 LLM 客户端以标准化的 JSON-RPC 形式进行交互,支持多传输协议并实现会话管理与能力声明。

网页与API

FinanceServer MCP 后端

基于 Deno 的 MCP(模型上下文协议)服务端实现,提供用于 LLM 客户端的上下文资源、工具调用与提示模板等能力,支持多场景的 MCP 会话(如全局、账单/支出等),通过 JSON-RPC/流式传输与客户端进行交互,具备会话管理、能力声明以及多种传输协议的支持。该仓库不仅实现服务器端路由与会话,还对接了数据库、OAuth、以及 MCP 服务实例化等核心组件,形成完整的 MCP 服务端框架。

AI与计算

MIDL MCP 服务器(Bitcoin 与 L2-MIDL 集成)

基于 Model Context Protocol (MCP) 的后端服务,实现资源托管、工具执行以及提示模板渲染,供大语言模型在 MIDL 区块链生态中安全、可扩展地获取上下文信息并执行相关操作。

网页与API

Wrangler MCP 服务器

基于 Model Context Protocol 的后端服务器,向大语言模型客户端提供资源管理、工具执行与提示模版渲染等上下文服务,支持会话管理与多传输协议。

网页与API

Claude-Playwright MCP 服务器

基于 Model Context Protocol 的 MCP 后端,为大语言模型提供上下文资源、工具调用和提示模板渲染等能力,支持 JSON-RPC 通信及多传输协议扩展,内置浏览器自动化与会话/缓存等核心模块。

开发者工具

Kernel MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,为大模型客户端提供统一的资源、工具和提示的对话上下文服务,集成 Kernel 平台的浏览器自动化和应用执行能力,并通过 OAuth2 进行安全鉴权与授权。

AI与计算

Pulse MCP 服务端

面向大语言模型的后端MCP服务器,实现通过JSON-RPC向LLM客户端提供资源、工具和Prompt相关的上下文服务,支持跨GitHub、Jira、Confluence的数据获取与操作,以及会话管理与多传输协议接入的能力。

AI与计算

LakeFlow MCP 后端服务器

基于模型上下文协议(MCP)的后端服务,实现资源、工具及提示模板的注册、执行与管理,提供 JSON-RPC 通信能力,便于让大语言模型客户端通过 MCP 调用 Databricks 作业等功能。

AI与计算

Enterprise MCP Bridge

基于 FastAPI 的服务器端实现,将任意基于 Model Context Protocol (MCP) 的服务暴露为标准的 HTTP/JSON 接口,向语言模型客户端提供资源数据、工具调用、提示模板等上下文能力,并具备多租户会话、OAuth 安全、令牌管理与流式输出等企业特性。它实现了 MCP 的核心组件组合与对外暴露的服务入口,便于整合到企业微服务架构中。

AI与计算

OpenBotAuth MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供策略评估、计费意图创建与使用计量等工具,通过 JSON-RPC 与 LLM 客户端交互,支持多种传输方式,作为 AI 代理上下文服务的核心服务器组件。

AI与计算

axel-backend

基于模型上下文协议(MCP)的后端实现,提供资源(Resources)托管、工具(Tools)注册与执行,以及 Prompts 定义与渲染,并通过 SSE/stdio 等传输方式与 LLM 客户端以 JSON-RPC 风格进行通信的完整 MCP 服务器实现。

网页与API

Sherpa MCP 服务器集成实现

基于 Model Context Protocol(MCP)的后端服务器集合,提供资源管理、工具执行、以及可自定义的提示模板渲染等功能,通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议与安全、可扩展的上下文服务。

AI与计算

sindi-ai-mcp-server

基于 Model Context Protocol (MCP) 的 Java 实现的 MCP 服务器端,提供对资源、工具、提示的注册与执行,以及会话管理与多传输协议(REST/Servlet/SSE、Streamable HTTP)的支持,通过 JSON-RPC 与客户端进行通信。

AI与计算

Codebrain MCP 服务器

基于 Model Context Protocol (MCP) 的后端上下文服务实现,提供资源管理、工具注册与执行、以及 Prompts 渲染等能力,通过 JSON-RPC 与客户端通信,支持标准传输(如 Stdio 传输)以提供对话上下文和外部功能的统一访问。

AI与计算

Orchestra MCP 服务器

基于 Model Context Protocol 的后端服务,使用 FastAPI 构建,提供资源、工具与提示模板等 MCP 功能,并通过 JSON-RPC 与客户端通信为大型语言模型客户端提供上下文和能力服务(如资源访问、工具调用与提示渲染)。服务器通过对外暴露的 MCP 路由实现对接、会话管理与多传输协议的支持(如 SSE/StdIo/WebSocket 等),以实现可扩展的上下文服务框架。

AI与计算

Sirchmunk MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供对 Sirchmunk 的资源托管、工具注册与执行,以及提示模板渲染等能力,向 LLM 客户端以标准化的 JSON-RPC 方式提供上下文与功能服务。

AI与计算

AutoForge MCP 服务端

基于模型上下文协议(MCP)的后端实现,用于向 LLM 客户端提供资源管理、工具注册/执行以及 Prompt 模板渲染等能力,并通过 JSON-RPC/WebSocket 等传输协议进行通信。本仓库包含完整的服务端实现、工具暴露、Prompts 加载与渲染、会话管理以及安全策略,能够作为可运行的 MCP 服务器端提供上下文服务。

AI与计算

tooltest MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的注册/管理、Prompt 的定义与渲染,以及会话管理与协议能力声明,支持通过标准输入输出或流式 HTTP 等传输协议与客户端进行 JSON-RPC 通信,用于为大型语言模型(LLM)提供上下文信息与外部功能访问能力。

AI与计算

enjoy MCP 服务器

基于 MCP(Model Context Protocol)的后端服务,提供通过 JSON-RPC 与 LLM 客户端进行交互的能力,允许对工具进行注册与执行、获取项目状态与排行榜等,并通过标准传输(如 STDIO)实现与 Claude/GPT 等客户端的无缝对接。

AI与计算

Path402 MCP Server

基于 Model Context Protocol (MCP) 的后端实现,作为对话型LLM客户端的后端服务,托管并管理资源(Resources)、注册与执行工具(Tools)、定义并渲染 Prompt 模板(Prompts),通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 等传输方式,提供会话管理和能力声明的上下文服务框架。

AI与计算

VMark MCP 服务器

基于 Model Context Protocol 的完整 MCP 服务器实现,提供资源管理、工具执行、以及与 LLM 客户端的 JSON-RPC 风格通信,支持多种传输路径与本地侧车集成。

AI与计算

Doubao MCP Server

基于火山引擎豆包 API 的 MCP 协议后端,提供文本到图像、文本到视频、图像到视频等多模态内容生成的资源、工具注册与提示模板渲染,面向 LLM 客户端的标准化上下文服务。

AI与计算

ContextVM MCP服务器实现 SDK

基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的注册与管理、提示模板定义,并通过 JSON-RPC 协议与 LLM 客户端进行上下文和功能交互,支持多种传输层(如 Nostr、Stdio 等)的安全扩展和会话管理。

AI与计算

AdCP销售代理 - MCP上下文协议服务器实现

基于模型上下文协议(AdCP)的后端服务器实现,提供资源(Resources)托管与管理、工具(Tools)注册及执行、以及提示模板(Prompts)的定义与渲染,并通过JSON-RPC 与客户端通信,支持多租户、多传输协议(如官方的Stdio、SSE、WebSocket)以为LLM应用提供安全、可扩展的上下文服务框架。

AI与计算

Claude Team MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供多智能体协作、资源与工具管理、Prompts 定义与渲染等能力,并通过 JSON-RPC 与客户端通信(当前实现以 Stdio 传输为主)。该服务器承担会话管理、能力声明、工具注册与执行、以及任务编排等核心职责,支持扩展的工具集和工作流模板,适合为 LLM 客户端提供标准化的上下文服务。 jovens

网页与API

Co-Op MCP 服务端

基于 MCP(Model Context Protocol)的后端服务器实现,提供资源管理、工具执行与上下文提示渲染等能力,支持 LLM 客户端以标准化的 JSON-RPC/HTTP 方式进行通信与协作。

AI与计算

Ninja Multi-Module MCP Server

基于 Model Context Protocol 的后端服务器集合,提供 coder、researcher、secretary 三个独立的 MCP 服务器,用于托管资源、注册执行工具、渲染提示模板,并通过 JSON-RPC/多传输协议与 LLM 客户端交互,适用于 AI 驱动的开发工作流。

AI与计算

Atlas CRM Headless MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,为多租户 CRM 提供资源、工具与提示模板的上下文服务,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多单位配置与安全访问。

AI与计算

CardForge MCP Server

基于 MCP 协议的 Claude Desktop 集成后端,为 MTG CardForge 提供资源、工具和提示模板等上下文服务,用于向 LLM 客户端提供统一的数据访问、工具执行和对话模板渲染能力。

AI与计算

ToolWeaver MCP Server

一款基于 Model Context Protocol(MCP)的后端服务器框架,向大语言模型客户端以标准化方式提供资源管理、工具注册/执行以及提示模板渲染等功能,支持 JSON-RPC 通信、会话管理、能力声明,并可通过多传输协议(如 Stdio、SSE、WebSocket)进行扩展与部署。

AI与计算

Claude 工作区 MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端服务集合,为 Claude Code 场景提供可扩展的上下文信息、资源数据、工具执行与提示模板渲染等能力。通过 JSON-RPC/stdio 与客户端通信,支持多传输方式,集成多个 MCP 服务器实现以实现持续化的脚本执行、浏览器自动化和工具调用等功能。

网页与API

Ayrshare MCP Server

基于 FastMCP 实现的 MCP 服务器,提供 Ayrshare 的资源、工具与 prompts,通过 JSON-RPC 与大模型客户端交互,实现统一的内容管理、外部功能调用与提示模板渲染能力。

开发者工具

Workstation MCP Server

基于 Model Context Protocol 的后端服务器,为 LLM 客户端提供标准化的上下文、资源、工具与提示模板,并通过 JSON-RPC/WebSocket 实现 MCP 通信与扩展能力,支持会话管理、权限控制与多传输协议接入。

AI与计算

Gobby MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器框架,提供资源与工具管理、提示模板,以及通过 JSON-RPC/HTTP/WebSocket 等协议与客户端交互的上下文服务能力。

AI与计算

URSA MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的托管与管理、工具注册与执行、以及 Prompt 模板的渲染,通过 JSON-RPC 与客户端进行通信,支持会话管理与多传输协议扩展。

AI与计算

UCAgent MCP Server

基于 Model Context Protocol (MCP) 的后端服务实现。该仓库通过对工具进行 MCP 适配,提供资源管理、工具注册/调用以及提示模板的统一访问,并通过 JSON-RPC/WSS/流式等传输方式与 LLM 客户端进行通信,具备会话管理与能力声明,能够作为 MCP 客户端的服务端实现。

AI与计算

Autobyteus MCP 服务端实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源(Resources)托管与访问、工具(Tools)的注册与执行,以及提示模板(Prompts)的定义与渲染,支持通过 JSON-RPC 与客户端通信,并具备会话管理与多传输协议(如 Stdio、SSE、WebSocket)扩展能力,为大语言模型(LLM)应用提供安全、可扩展的上下文服务框架。

AI与计算

AI Developer Guide MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具和 Prompts 的统一访问与渲染能力,支持通过标准化的 JSON-RPC 进行通信,并可通过 STDIO 等传输通道接入。

AI与计算

tempo-mcp

基于模型上下文协议(MCP)的服务器端实现,向大型语言模型客户端提供 Tempo 区块链的资源、工具和提示模板,并通过 JSON-RPC 进行交互,支持多传输协议与严格的会话与安全机制。

AI与计算

TIA MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管与管理、Prompt/模板的渲染,以及通过 JSON-RPC 与客户端通信的能力,支持多传输通道如 STDIO、WebSocket 等,帮助 LLM 客户端以标准化方式获取上下文、数据访问和外部功能调用。

开发者工具

Unity MCP Vibe

在 Unity 编辑器内原生实现的 MCP 服务器,提供 Resource、Tools、Prompts 等模块的后端能力,允许通过 JSON-RPC 风格的命令注册与执行,与 LLM 客户端进行上下文和功能交互,支持多种传输方式(如 Stdio、SSE、WebSocket)并包含安全与生命周期管理。