返回首页

"Prompts" 标签

30 个结果

标签搜索结果

AI与计算

Roo Extensions MCP 服务器套件

基于 Model Context Protocol (MCP) 的后端服务器实现集合,向 LLM 客户端以标准化方式提供资源、工具和提示,并通过 JSON-RPC 进行通信;支持多机器协同、会话管理与多传输协议(如 STDIO、SSE、WebSocket)的可扩展上下文服务框架。仓库内含多个 MCP 服务实例及封装器,用于托管资源、注册工具、渲染Prompts,并提供运行和测试环境。

网页与API

OpenAPI MCP Server

基于 Model Context Protocol (MCP) 的后端服务,能够将 OpenAPI 定义的 REST API 端点暴露为 MCP 工具,并可选地提供 Prompts 和 Resources,支持标准的 JSON-RPC 通信、会话管理以及多种传输方式(Stdio、HTTP streaming)以供 LLM 客户端使用。

AI与计算

AFS MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器,通过 JSON-RPC 标准向 MCP 客户端提供 Resources、Tools 与 Prompts 的注册、查询、执行与渲染等核心能力,并支持会话管理与多传输协议接入。

AI与计算

Hydra MCP 服务器

基于 Hydra 的 MCP 服务器实现,提供资源、工具与 Prompt 的标准化上下文服务,并通过 JSON-RPC 与客户端通信以支持多轮对话与上下文管理。

开发者工具

Forge-MCP Server 集成套件

基于 Model Context Protocol (MCP) 的多引擎后端服务器集合,核心职责是通过 JSON-RPC 2.0 与 LLM 客户端通信,提供资源托管与数据访问、注册和执行工具、定义与渲染 Prompt 模板等能力,支持多种传输形态并实现会话与能力声明,适合将 AI 客户端接入到各种构建、测试、环境管理等后端服务场景。

AI与计算

Skylos MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 LLM 客户端提供上下文信息与功能。核心能力包括托管与管理 Resources(数据资源)、注册与执行 Tools(外部功能)、定义与渲染 Prompts(提示模板),通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输协议(如 Stdio、SSE、WebSocket)实现安全、可扩展的上下文服务。该实现与 Skylos 项目紧密集成,提供对代码分析结果、资源访问、工具执行等能力的统一后端服务。

AI与计算

Brakit MCP Server

Brakit 提供基于 Model Context Protocol (MCP) 的服务器端实现,向大型语言模型(LLM)客户端以标准化方式暴露资源、工具和提示模板,并通过 JSON-RPC 进行通信,支持会话管理、能力声明以及多种传输方案,用于在本地环境中为 LLM 应用提供上下文服务与扩展能力。

网页与API

Guilders MCP 服务器

基于 Guilders API 的 MCP 服务器实现,通过 JSON-RPC 提供资源访问、工具执行以及提示模板渲染等能力,供大型语言模型(LLM)客户端安全地获取上下文数据与外部功能。

网页与API

ApiTap 基于 Model Context Protocol 的后端 MCP 服务器实现

一个实现 MCP(Model Context Protocol)的后端服务器,提供资源管理、工具注册、Prompt 定义与渲染,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输协议,面向将网站/数据源暴露为可被 LLM 调用的上下文服务的场景。

AI与计算

openEHR MCP Server

基于 Model Context Protocol (MCP) 的 PHP 实现的开放式 MCP 服务器,提供资源、工具和提示模板的管理与执行,并通过 JSON-RPC 与客户端进行交互,支持流式 HTTP 与 stdio 等传输形式,适用于在 openEHR 领域为 LLM 客户端提供上下文与能力服务。

AI与计算

Remembrance Oracle Toolkit MCP Server

基于 Model Context Protocol(MCP) 的后端服务器实现,提供以 JSON-RPC 2.0 方式向 AI 客户端暴露资源管理、工具注册/执行以及可渲染的 Prompt 模板等能力,并支持多传输协议(如 STDIO、WebSocket、SSE),实现会话管理与能力声明,用于为 LLM 应用提供结构化的上下文服务与外部功能入口。

AI与计算

QMatSuite MCP Server

基于 Model Context Protocol (MCP) 的后端服务器, provide 资源管理、工具注册与执行、以及 Prompt 模板的定义/渲染,并通过 JSON-RPC 与 LLM 客户端进行通信。服务器负责会话管理、能力声明,并支持扩展的传输协议(如 STDIO、SSE、WebSocket),用于向大语言模型应用提供标准化的上下文信息、数据访问、和外部功能调用能力。该仓库实现了完整的 MCP 服务器端能力,包含资源、工具、知识库、演示/demo、以及多工具链的整合。

AI与计算

Mini AI 1C MCP 服务器集合

基于 Model Context Protocol (MCP) 的多模态 MCP 服务器实现集合,围绕 1C:Предприятие 提供“资源/工具/提示模板”的上下文服务与托管能力,并通过 STDIO、HTTP 等传输协议与 MCP 客户端进行通信。代码覆盖 1C 相关的元数据、帮助文档、代码搜索等服务,以及一个用于搜索的 Rust 实现,构成一个可运行的 MCP 服务器生态,以支持 AI 助手在开发场景中的上下文数据和外部功能调用能力。

AI与计算

PRISM MCP 服务器

基于 Model Context Protocol 的后端服务,暴露 PRISM 的资源、工具和提示模板等功能,使用 JSON-RPC 通过多种传输(本仓库默认 stdio)与 LLM 客户端进行通信。

AI与计算

Claude Code Ultimate Guide MCP 服务器

基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,负责托管资源、注册并执行工具、定义并渲染提示模板,并通过 MCP 标准与客户端进行交互(以 stdio 传输为主,支持会话管理、能力声明及多种渲染能力)。

AI与计算

Helios Studio MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,面向大语言模型客户端提供标准化的上下文服务。核心职责包括托管与管理资源、注册和执行工具、定义与渲染 Prompt 模板,并通过 JSON-RPC 与客户端进行通信。具备资源/工具/提示的托管、会话管理、能力声明,以及对多传输协议的支持(如 Stdio、SSE、WebSocket)等能力。

网页与API

CKAN MCP 服务器实现

基于 Model Context Protocol (MCP) 的 CKAN MCP 服务器实现,向 MCP 客户端提供资源托管、工具注册、Prompts、以及基于 CKAN 的数据检索与分析等功能,并通过 JSON-RPC 进行跨客户端的上下文服务交互,支持多传输通道(stdio、HTTP 等)以适应不同部署场景。

AI与计算

Omni-Dev-Fusion MCP 服务器实现

基于 Model Context Protocol 的后端服务实现,提供资源、工具、Prompts 的注册与管理,并通过 JSON-RPC 与客户端通信,支持多传输协议(STDIO、SSE、WebSocket),实现会话管理和能力声明,用于为 LLM 客户端提供一致的上下文与功能服务。

AI与计算

Distr MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与访问、工具注册与调用、以及提示模板的定义与渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多种传输方式(如 STDIO、HTTP、WebSocket 等),用于为大语言模型提供统一的上下文与功能服务。

AI与计算

Goodfoot MCP 服务器集合

基于 Model Context Protocol(MCP)的后端服务器集合,向大型语言模型客户端以标准化方式提供上下文信息与功能,包括托管资源、注册与执行工具,以及定义/渲染提示模板;支持多种传输协议(Stdio、SSE、HTTP),通过 JSON-RPC 与客户端通信,适用于 Claude Code 等工作流场景。

AI与计算

Veritas Kanban MCP 服务器

基于 Veritas Kanban 的 MCP 服务器实现,提供以 JSON-RPC 方式向 AI 助手/客户端暴露资源、工具、提示模板等上下文能力的后端服务,并支持多传输通道与会话管理。

AI与计算

HyperPod InstantStart MCP 服务端

基于 Model Context Protocol(MCP) 的后端服务器实现,提供资源管理、工具注册与调用、以及 Prompt 模板渲染等能力,供 LLM 客户端以标准化方式获取上下文、数据与外部功能。

AI与计算

BoxLang-MCP 服务器

基于 Model Context Protocol (MCP) 的 BoxLang 后端服务器实现,提供对 Resources、Tools 与 Prompts 的注册、管理与暴露,并通过 JSON-RPC 与 MCP 客户端进行通信,支持多传输协议(如 STDIO、SSE、WebSocket),为 LLM 客户端提供标准化的上下文服务、会话与能力声明。

AI与计算

Echo Noise MCP 服务端实现

基于模型上下文协议(MCP)的后端实现,提供资源、工具与 Prompt 的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输模式(如 Stdio、SSE、WebSocket)以及会话与能力声明,并可通过 MCP 客户端接入扩展能力。该仓库在后端 Go 语言实现了核心服务,并在 README 提供了配套的 MCP 客户端服务(MCP 服务器端 bundles/示例及接入文档)。

AI与计算

IronBase MCP 服务器

基于 Model Context Protocol 构建的后端服务实现,作为 MCP(Model Context Protocol)服务器向大型语言模型客户端提供结构化的资源管理、工具注册与执行、以及可自定义的 Prompt 模板渲染能力;通过 JSON-RPC 进行通信,并支持 HTTP/STDIO 等传输模式与会话管理、能力声明与访问控制等安全特性。

AI与计算

Edda MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现(集成于 Edda 框架),通过 JSON-RPC/多传输协议向 LLM 客户端暴露 durable workflows、资源和工具,并支持 Prompts 渲染,方便 AI 助手与后端工作流进行长期上下文交互和功能调用。

AI与计算

AdCP Sales Agent MCP Server

基于模型上下文协议(Model Context Protocol, MCP)的后端服务器,向大型语言模型(LLM)客户端以标准化方式提供资源数据、工具执行能力和可渲染的提示模板,支持多租户、会话管理以及通过 JSON-RPC 与客户端通信的上下文服务框架,适用于广告投放场景的自动化协作与执行。

AI与计算

Identity MCP

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示模板的托管与管理,并通过 MCP 协议向 LLM 客户端暴露上下文服务、数据访问与外部功能调用能力。支持多种传输方式(HTTP/JSON-RPC、SSE、WebSocket/流式)以及多用户隔离。

AI与计算

NCP - 自然上下文提供者 MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供统一的资源管理、工具注册/执行以及 Prompt 模板的定义和渲染,能够通过 JSON-RPC 与 LLM 客户端进行交互,并支持多传输协议(如 Stdio、SSE、WebSocket)与会话管理、能力声明及健康监控等扩展能力。

AI与计算

EdgarTools MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,面向 LLM 客户端提供统一的上下文资源、可注册的工具以及可渲染的 Prompt 模板。通过 JSON-RPC 与客户端通信,支持会话管理、能力宣告,以及多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,适配 Claude 等 AI 助手的上下文服务需求。