返回首页

"提示渲染" 标签

14 个结果

标签搜索结果

AI与计算

Shepherd MCP 后端服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板的定义渲渲染,并通过 JSON-RPC 与 Claude Desktop 等 MCP 客户端进行通信,支持多传输方式以实现对大语言模型的上下文服务。

AI与计算

Mastra MCP Server 框架

基于 Model Context Protocol (MCP) 的后端框架,提供资源托管、工具注册与执行、以及提示模板渲染,并通过多传输通道与客户端进行标准化的 JSON-RPC 通信,支持在 Express、Hono、Fastify、Koa、Hono 等适配器上部署的 MCP 服务。

AI与计算

DURA 模型上下文协议服务器实现

基于模型上下文协议(Model Context Protocol,MCP)的后端服务实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持多种传输方式以为大语言模型应用提供可扩展的上下文服务框架。

开发者工具

Knowledge Context Protocol (KCP) MCP 服务器实现集合

一个跨语言的 MCP 服务器实现集合,用于将 Knowledge Context Protocol (KCP) 的 knowledge.yaml 声明暴露为 MCP 资源、工具和提示,提供单元资源读取、工具调用和提示获取等核心 MCP 功能,并支持子清单、验证、不同传输方式以及命令行与程序化接口。

AI与计算

Multi-CLI MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供跨多 AI 客户端的工具、提示与潜在资源上下文服务,支持 JSON-RPC 请求/响应、会话管理以及标准传输(如 STDIO)。

AI与计算

InfiniClaw MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,面向大语言模型客户端提供标准化的上下文服务。

AI与计算

Corvia MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,实现资源托管、工具注册/执行与 Prompt 模板渲染,向 LLM 客户端以标准化的 JSON-RPC 方式提供上下文与功能,并通过 Axum 构建的 MCP 服务端实现会话管理、能力声明与多传输协议支持(如 Stdio、SSE、WebSocket)以服务化地提供组织级记忆与上下文服务。

AI与计算

MCP Inspector 服务器端实现

基于 Model Context Protocol(MCP)的后端实现,提供资源托管与管理、工具注册与执行、以及提示模板的渲染与测试能力,并通过 JSON-RPC 与 LLM 客户端进行交互。支持多传输协议(如 SSE、WebSocket、stdin/stdio),用于为 LLM 应用提供可扩展的上下文服务框架。仓库实现包含服务端核心路由、MCP Apps 与 Widget 集成、OAuth/API Key 等认证测试用例,以及用于调试与开发的工具和中间件。

AI与计算

Claude Task Master MCP 服务器端

基于 Model Context Protocol(MCP)的后端服务器,实现资源对接、工具注册/执行与提示模板渲染等能力,向大语言模型客户端提供标准化的上下文服务,通过 JSON-RPC 进行通信,支持多传输协议和会话管理,适用于多实例协同的上下文服务场景。

AI与计算

cctelepathy MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,面向 Claude Code 等 LLM 客户端提供标准化的上下文与功能服务。

AI与计算

mcpkit

基于 Model Context Protocol (MCP) 的服务器端实现框架,提供资源、工具、提示的托管、注册、路由与多传输支持,面向 LLM 客户端的上下文服务。

AI与计算

Claude Sessions MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,实现 Claude Code 会话的资源管理、工具执行与提示渲染,提供统一的上下文服务给 LLM 客户端,采用 JSON-RPC 进行交互,支持多传输方式并完成会话、资源、工具等能力的托管与管理。

AI与计算

CC-Switch MCP 服务器实现

基于模型上下文协议(MCP)的服务器端实现,提供资源托管、工具注册/执行以及 Prompts 定义与渲染,通过 JSON-RPC 与 LLM 客户端通信,支持多种传输方式并具备会话管理与跨应用的 MCP 服务器管理能力。

AI与计算

OOREP MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,实现资源管理、工具注册与执行、以及提示模板渲染,向大语言模型客户端提供可扩展且结构化的上下文服务与数据访问能力。