返回首页

"prompt templates" 标签

5 个结果

标签搜索结果

AI与计算

Spellbook MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端提供统一的资源数据、工具调用、以及可渲染的 Prompt 模板等上下文服务,通过 JSON-RPC 进行通信,支持会话管理、能力声明与多传输协议接入。

AI与计算

pair-review MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,向大语言模型客户端提供规范化的上下文服务,包括资源管理、工具注册与执行,以及可定制的提示模板渲染;通过 JSON-RPC 进行通信,支持多种传输模式(如 stdio、HTTP/Streamable HTTP),并实现会话管理与能力声明,适用于在本地搭建的 MCP 服务端场景。

网页与API

Akashi Context MCP 服务器

基于 Model Context Protocol(MCP)实现的后端服务器,提供资源托管、工具注册与执行、以及可定制的 Prompt 模板渲染。通过 JSON-RPC 形式与 LLM 客户端通信,支持多传输方式(HTTP、STDIO 等),并提供会话管理、能力声明、访问控制与审计追踪等完整后端能力。仓库内不仅包含完整的 MCP 服务端实现,还实现了与 Claude/Cursor/Windsurf 等 MCP 客户端的对接支持。

AI与计算

BranchMind MCP 服务器

BranchMind 依据 MCP(Model Context Protocol)实现的后端服务,面向 LLM 客户端提供统一的上下文资源管理、工具注册与执行,以及可渲染的 Prompt 模板,支持多种传输通道(如 Stdio、SSE、WebSocket),实现会话管理、能力声明与安全可扩展的上下文服务。

AI与计算

Defeat Beta MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板的托管与管理,支持 JSON-RPC 客户端交互,并具备会话管理与多传输协议扩展能力,适用于向 LLM 客户端提供可访问的数据、外部功能与定制化提示。