返回首页

"提示模板渲染" 标签

22 个结果

标签搜索结果

网页与API

Axon MCP Server

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,旨在为 LLM 客户端提供标准化的上下文服务:托管资源、注册和执行工具,以及定义与渲染提示模板,并通过 HTTP JSON-RPC 与客户端进行交互,支持会话管理与多传输模式(如 HTTP/StdIO)。

AI与计算

AI Product Manager MCP Servers

基于 Model Context Protocol 的多服务器实现集合,为大语言模型客户端提供资源、工具和提示模板等上下文服务,并通过 JSON-RPC 进行标准化通信,以支持资源访问、工具注册/执行以及提示模板渲染等能力。

AI与计算

oh-my-codex MCP 后端服务器集合

基于 Model Context Protocol (MCP) 构建的后端服务器集合,提供资源/内存等资源管理、工具注册与执行,以及提示模板渲染等能力,作为 LLM 客户端的上下文与功能服务提供商。包含 state/memory/code_intel/trace/team 等独立 MCP 服务,通过 JSON-RPC 风格的请求/响应进行交互,并可通过 StdIO 启动在后台运行,支持会话管理与多传输协议适配,面向真实的 MCP 客户端使用场景。

AI与计算

duh MCP 服务器实现

基于 Model Context Protocol 的后端服务,作为 MCP 客户端的上下文信息与功能提供端,托管资源、注册并执行工具、定义并渲染 Prompt 模板,并通过 JSON-RPC 与前端或 LLM 客户端进行通信,支持多种传输协议以实现安全、可扩展的上下文服务。

开发者工具

Lobster MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,使用 JSON-RPC 与 LLM 客户端通信,支持多传输协议以实现安全、可扩展的上下文服务。

AI与计算

Commandable MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端提供资源管理、工具注册与执行、以及可定制的 Prompt 模板渲染等上下文服务,支持 JSON-RPC 通信并可通过 STDIO、HTTP、SSE、WebSocket 等传输协议接入客户端。

AI与计算

HealthReporting MCP 服务器

基于 Model Context Protocol (MCP) 的健康数据后端服务器,向大型语言模型(LLM)客户端以标准化格式提供资源访问、工具执行与提示渲染能力,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议接入,以实现对健康数据的上下文提供与功能扩展。

AI与计算

Smart AI Bridge MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 LLM 客户端的上下文服务提供者,托管与管理资源(Resources)、注册并执行 Tools、定义与渲染 Prompt 模板。通过 JSON-RPC 与 Claude Code 等客户端进行通信,提供会话管理、能力声明,以及可扩展的传输协议支持(如 Stdio、SSE、WebSocket),实现跨后端的智能路由、 council(多后端共识)等 MCP 功能,形成稳定、可扩展的后端上下文服务框架。

AI与计算

Tollama MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行,以及 Prompt 模板渲染,通过 JSON-RPC 与 LLM 客户端通信,支持会话管理与多种传输协议的可扩展上下文服务。

AI与计算

SDL-MCP 服务器(Symbol Delta Ledger MCP)

基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端提供标准化的资源访问、工具执行与提示模板渲染能力,并通过 JSON-RPC 与客户端进行通信,支持多传输协议(如 Stdio、HTTP、SSE、WebSocket),用于在代码上下文中以高效、可审计的方式提供上下文与功能服务。

AI与计算

UNITARES Model Context Protocol 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供对资源的托管与访问、工具的注册/执行,以及 Prompt 模板的定义与渲染。服务器通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明,并可通过多种传输协议(如标准输出/终端、Server-Sent Events、WebSocket)进行上下文服务与功能调用,为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

Rystem 模型上下文协议服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具和提示模板的托管与注册,并通过 JSON-RPC 与 LLM 客户端通信,支持本地开发与扩展传输。

AI与计算

Open-Hivemind MCP Server

基于 Model Context Protocol(MCP)的后端服务器,聚合资源、工具与提示模板,提供标准化的 JSON-RPC 接口与会话管理,支持多传输协议以向大语言模型客户端提供上下文与功能能力。

开发者工具

ralph-starter MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供资源(Resource)、工具(Tool)注册与查询、以及提示模板(Prompt)的管理与渲染;通过 JSON-RPC 与 MCP 客户端通信,支持会话管理、能力声明,并实现以 STDIO 为传输的 MCP 服务器,作为 LLM 客户端的上下文服务框架。该仓库实现了完整的 MCP 服务端逻辑,可与 Claude Desktop、Cursor 等 MCP 客户端协同工作,以标准化方式提供资源、工具与提示信息。

AI与计算

Claude Cognitive MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,为 LLM 客户端提供资源管理、工具注册与执行、以及可自定义的 Prompt 模板渲染等上下文服务,支持 JSON-RPC 通信及多传输协议(如 STDIO、HTTP/SSE/WebSocket)以实现安全、可扩展的后端上下文服务。

网页与API

Claude-Playwright MCP 服务器

基于 Model Context Protocol 的 MCP 后端,为大语言模型提供上下文资源、工具调用和提示模板渲染等能力,支持 JSON-RPC 通信及多传输协议扩展,内置浏览器自动化与会话/缓存等核心模块。

AI与计算

PatternFly MCP Server

基于 Model Context Protocol 的 MCP 服务器端实现,提供 PatternFly 的资源、工具与文档的统一上下文服务,支持多传输协议(STDIO、HTTP/WebSocket 等)、会话管理与能力声明,水平扩展以供 LLM 客户端获取资源、执行工具和渲染 Prompt 模板等上下文信息。

AI与计算

kemdiCode MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向 AI 客户端以标准化方式提供资源管理、工具注册与执行,以及提示模板渲染等功能,采用 JSON-RPC 与客户端通信并支持多种传输通道。

网页与API

InfoMosaic MCP 服务器框架

InfoMosaic 提供基于 Model Context Protocol (MCP) 的服务器端实现框架,能够托管资源、注册并执行工具、定义并渲染提示模板,并通过多种传输方式对外提供上下文服务与能力声明。

AI与计算

MCP 后端服务器实现(Alex 系列多组件协作)

基于 Model Context Protocol (MCP) 的后端服务器实现,承载资源、工具和提示模板,并通过 JSON-RPC 与 LLM 客户端进行标准化交互,支持多种传输模式,便于向 LLM 客户端提供统一的上下文信息和功能入口。

AI与计算

Oh My OpenCode MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,提供资源管理、工具注册/执行与提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行标准化通信,支持多种传输协议与会话管理以实现安全、可扩展的上下文服务。

AI与计算

Autobyteus MCP 服务端实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源(Resources)托管与访问、工具(Tools)的注册与执行,以及提示模板(Prompts)的定义与渲染,支持通过 JSON-RPC 与客户端通信,并具备会话管理与多传输协议(如 Stdio、SSE、WebSocket)扩展能力,为大语言模型(LLM)应用提供安全、可扩展的上下文服务框架。