返回首页

"模板渲染" 标签

11 个结果

标签搜索结果

AI与计算

MAXSIM MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供资源、工具、提示模板等上下文信息,并通过 JSON-RPC(以 STDIO 传输为主)与 Claude Code 客户端进行交互,支持会话管理与能力声明,能够向 LLM 客户端暴露多种工作工具与上下文资源。该仓库中包含完整的服务端实现和对外暴露的 MCP 工具集合。

AI与计算

Cortex

基于模型上下文协议(MCP)的后端服务器,实现资源管理、工具注册与执行,以及 Prompt 模板渲染,面向对话式大语言模型提供标准化的上下文与功能服务。

AI与计算

Spacebot MCP Server

Spacebot 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力。通过 MCP 标准协议与客户端进行 JSON-RPC 通信,支持本地 stdio 与 HTTP 传输,并在配置中实现对 MCP 服务器的注册、监控与热重载,作为多进程/多任务 AI 应用的上下文与工具服务后端。

网页与API

EasyBits MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(资源管理与数据访问)、工具(外部功能注册与调用)、以及提示模板(Prompts)的标准化提供,采用 JSON-RPC 形式与客户端通信,具备会话管理、能力声明,并可扩展多种传输方式。

桌面与硬件

mirroir-mcp

基于 Model Context Protocol (MCP) 的服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、Prompts 定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 STDIO、SSE、WebSocket),用于为大模型/LLM 客户端提供标准化的上下文信息和功能访问。

AI与计算

mcp-supersubagents

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及模板渲染等能力,通过 JSON-RPC 与客户端通信,支持多提供者协同与并行执行的后端上下文服务。

AI与计算

UNCASE MCP 服务器

基于 Model Context Protocol 的 UNCASE 后端实现,使用 FastMCP 将 seeds、tools、prompts 等上下文资源以 JSON-RPC 风格暴露给 LLM 客户端,并支持工具执行、模板渲染等功能的 MCP 服务器实现。

网页与API

Phrase MCP Server

基于模型上下文协议(MCP)的后端服务器,向语言模型客户端以标准化的 JSON-RPC 形式暴露 Phrase Strings 与 TMS 的资源、工具和提示模板,支持多产品运行、会话管理和多传输协议。

网页与API

Thoth MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,负责托管资源、注册与执行工具、定义并渲染可定制的 Prompt 模板,并通过 JSON-RPC 与 LLM 客户端进行标准化的上下文服务交互,支持多种传输协议以提供安全、可扩展的后端能力。

桌面与硬件

TEAM05 MCP 服务器套件

基于 Model Context Protocol (MCP) 的后端服务器实现,提供面向大语言模型的资源管理、工具调用与提示渲染能力;仓库包含多个独立的 MCP 服务模块(如 Distiller、NCEMPy、4DCamera 等),通过 FastMCP 框架实现工具注册、资源访问与 JSON-RPC 风格的请求响应,支持通过多种传输方式进行客户端通信。

AI与计算

npcpy MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供对资源、工具与提示模板的托管、注册与渲染,并通过 JSON-RPC 风格接口与客户端交互,支持会话管理、能力声明与多种传输方式(如 StdIO、SSE、WebSocket)。