返回首页

"Prompt 模板" 标签

33 个结果

标签搜索结果

网页与API

VerifiMind-PEAS MCP Server

基于 Model Context Protocol 的 VerifiMind-PEAS MCP 服务器实现,提供 X-Z-CS RefleXion Trinity 的多模型评审、资源与工具管理,并通过 JSON-RPC 的 MCP 协议与客户端通信。

开发者工具

PMAT-MCP-Agent-Toolkit

基于 Model Context Protocol (MCP) 的服务器实现与工具包,提供资源托管、工具注册与执行、以及 Prompt 模板渲染等能力,采用 JSON-RPC 与客户端通信,支持会话管理与多传输协议(_stdio、SSE、WebSocket)等,目标为为 LLM 客户端提供安全、可扩展的上下文服务框架。

网页与API

hono-mcp-server

基于 Hono 的 MCP 服务器实现,提供统一的资源/工具管理、提示模板渲染与 JSON-RPC 通信能力,允许将 Hono API 端点暴露为 MCP 工具供 LLM 客户端调用。

AI与计算

OmniSpecialist MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,托管资源、注册工具、定义与渲染 Prompt 模板,并通过 JSON-RPC 与 LLM 客户端进行交互,支持跨进程/网络传输以提供可扩展的上下文服务。

AI与计算

MCP NanoBanana 图像生成 MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供图像生成/编辑工具、提示模板和任务查询等能力,使用 AceDataCloud 的 NanoBanana API 进行实际处理,支持本地标准输入/输出和远程 HTTP 传输。

AI与计算

Sardis MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,向大型语言模型客户端提供标准化的上下文资源、工具执行和可渲染的提示模板,采用 JSON-RPC 的通信方式,并支持多传输协议接入与会话管理,旨在为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

AI-Investment-Advisor MCP Server

基于 Model Context Protocol(MCP)的后端服务器,向 LLM 客户端提供资源、工具与 Prompt 模板等统一上下文服务,并通过 JSON-RPC 与客户端进行请求/响应交互,附带会话管理与能力声明,支持多传输协议以实现安全、可扩展的上下文服务框架。

AI与计算

JD.AI MCP 服务器实现

基于模型上下文协议(MCP)的后端服务,专注托管与管理资源(Resources)、注册并执行工具(Tools)、定义与渲染 Prompt 模板,随后通过 JSON-RPC 与 LLM 客户端进行标准化的上下文交互。服务端负责会话管理、能力声明,并可通过多种传输通道(REST/SignalR、Stdio、Server-Sent Events、WebSocket)实现跨平台的上下文服务能力,适配 JD.AI 生态内的网关、通道与工具体系。

开发者工具

Cass Memory MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端服务,提供资源管理、工具注册与执行,以及提示模板渲染,通过 JSON-RPC 与 LLM 客户端进行交互,并支持本地化部署与多种传输方式。

AI与计算

Athena MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管与访问、工具注册与执行、以及 Prompt 模板的渲染与管理;通过 JSON-RPC 方式与客户端通信,支持多传输协议(如标准输入输出和 SSE),实现会话管理、能力声明与权限控制,面向 LLM 客户端提供可扩展、可审计的上下文服务框架。

开发者工具

Pare MCP 服务器集成平台

Pare 是一个面向开发者的 MCP 服务器集合,提供资源、工具和提示模板的结构化 JSON-RPC 接口,供大语言模型客户端以标准化方式获取上下文、数据访问与外部功能调用能力。

AI与计算

PromptWheel MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板渲染等核心能力,并通过 JSON-RPC 与 LLM 客户端进行上下文信息托管和功能调用,支持会话管理与跨会话记忆,面向自动化代码与软件工程场景的上下文服务框架。

AI与计算

Debate Hall MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板,供大模型客户端以标准化的 JSON-RPC 方式获取上下文数据、调用外部功能与获取对话模板。服务器实现了会话管理、能力声明,并支持多种传输协议(如 Stdio、SSE、WebSocket),为结构化辩论场景中的 Wind/Wall/Door 模型提供安全、可扩展的上下文服务框架。

AI与计算

Codes MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端提供资源管理、工具注册与执行、以及 Prompt 模板渲染等上下文服务,并通过 JSON-RPC 与客户端通信,支持 Claude Code 的多主体协作与扩展能力。

AI与计算

agnix MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向大模型客户端以标准化方式提供资源、工具与提示模板等上下文能力;通过 JSON-RPC 与客户端通信,支持多传输协议(stdio、SSE、WebSocket),并实现会话管理、能力声明以及对 MCP 请求/响应的处理。

开发者工具

AgentOS MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具与 Prompt 模板的注册、管理、执行与渲染,并通过 JSON-RPC 与客户端进行通信,支持多种传输方式与会话管理,便于 LLM 客户端获取上下文信息与外部功能。

AI与计算

OpenCode Spec Kit MCP 服务器框架

基于 Model Context Protocol (MCP) 的服务器实现框架,提供资源管理、工具注册与执行、Prompt 模板渲染,以及多传输协议支持,面向大模型客户端提供标准化的上下文与功能服务。

开发者工具

SousChef MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现;通过标准化的 JSON-RPC 方式向 LLM 客户端提供上下文信息、资源管理、工具注册与执行,以及可渲染的 Prompt 模板,支持多传输协议(如 Stdio、SSE、WebSocket),用于构建安全、可扩展的 LLM 上下文服务平台。

AI与计算

OneTool MCP 服务器

基于 Model Context Protocol 的后端服务器实现,向大语言模型客户端提供资源托管、工具注册与执行,以及可渲染的 Prompt 模板,采用 JSON-RPC 进行通信,支持多种传输协议并具备会话管理与能力声明。

AI与计算

AdCP MCP 服务器

基于 Model Context Protocol(MCP)的广告自动化后端实现,提供资源、工具和 Prompt 模板的托管与管理,并通过 JSON-RPC 与客户端进行通信,支持多传输协议(如 STDIO、SSE、WebSocket),为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

CodingBuddy MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具、Prompt 的托管、读取和渲染能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输协议以提供安全、可扩展的上下文服务。

AI与计算

Cognia MCP 服务端实现

基于 Model Context Protocol(MCP)的完整服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染,以及以 JSON-RPC 形式与客户端通信的能力,支持多传输通道(stdio、SSE、WebSocket)与会话管理,适合作为 LLM 客户端的上下文服务后端。

开发者工具

HealthSim MCP Server

基于 Model Context Protocol (MCP) 的 HealthSim 后端实现,用于以标准化方式向 LLM 客户端提供上下文信息和功能,包括资源管理、工具注册/执行,以及提示模板渲染。服务器通过 JSON-RPC 与客户端通信,具备会话管理、能力声明,并对接多种传输协议(如 Stdio、SSE、WebSocket),为健康数据生成与模拟应用提供可扩展的上下文服务框架。

AI与计算

Better Auth MCP Server

为 Better Auth 应用提供模型上下文协议 (MCP) 服务,管理资源、工具和 Prompt 模板,标准化 LLM 交互。

AI与计算

MCP-Go 服务器

基于 Go 语言实现的 Model Context Protocol (MCP) 服务器,提供资源管理、工具注册和 Prompt 模板等核心功能,用于构建 LLM 应用的上下文服务后端。

数据库与文件

SQLite MCP 服务器

一个基于 MCP 协议的 SQLite 服务器,提供数据库操作、业务洞察记录和 Prompt 模板功能,通过标准接口与 LLM 客户端交互。

开发者工具

mcp-go

mcp-go 是一个用 Go 语言编写的 Model Context Protocol (MCP) 服务器实现,旨在简化 LLM 应用与外部数据源和工具的集成。

商业系统

mcp server salesforce

mcp-server-salesforce 是一个 MCP 服务器实现,提供笔记的存储、总结和添加功能,可作为与 Salesforce 集成的基础。

AI与计算

mcp

mcp.rs 是一个用 Rust 语言实现的高性能 Model Context Protocol (MCP) 服务器,旨在为 AI 应用提供标准化的上下文和资源访问能力。

开发者工具

openai mcp

Claude Code Python Edition 是一个基于 Model Context Protocol (MCP) 的应用,它不仅是一个强大的 LLM 驱动的 CLI 软件开发工具,同时也能作为 MCP 服务器为 Claude Desktop 等客户端提供上下文服务,并具备成本管理和实时工具可视化等增强功能。

AI与计算

gomcp

gomcp 是一个使用 Go 语言编写的 Model Context Protocol (MCP) 服务器的非官方实现,旨在为 LLM 应用提供工具和 Prompt 服务。

网页与API

Time

提供当前时间的MCP服务器,支持获取指定时区的时间,并可通过 Prompt 模板与 LLM 交互获取时间信息。

生产力应用

Notes Server

Notes Server 是一个 MCP 服务器,用于管理个人笔记,支持创建、读取、更新、删除笔记,并通过 Prompt 模板进行笔记总结和资源访问。