返回首页

"Prompt 渲染" 标签

13 个结果

标签搜索结果

AI与计算

Vigil MCP 服务器

基于 Model Context Protocol 的后端服务,按照 MCP 标准提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,通过 JSON-RPC 作为传输协议与 Claude Desktop/Code/Cursor 等客户端进行上下文对话与功能调用。该服务器内置会话管理、能力声明,并支持多种传输协议,以为 LLM 应用提供可扩展、安全的上下文服务框架。

AI与计算

Agenticore MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务,提供资源托管与访问、工具注册与执行、以及可定制的 Prompt 模板渲染,统一通过 JSON-RPC 与客户端交互,并支持多种传输方式(HTTP/SSE/stdio)以实现对大语言模型客户端的上下文与功能服务。

网页与API

JD.AI MCP 服务端

基于 JD.AI 架构的 MCP 服务器实现,提供资源管理、工具注册与执行、Prompt 模板定义与渲染,并通过 JSON-RPC 与 LLM 客户端进行上下文服务交互,支持多传输协议以实现安全可扩展的后端上下文服务。

AI与计算

bknd

基于 Model Context Protocol(MCP)的后端框架,提供资源(Resources)、工具(Tools)、提示模板(Prompts)的托管与管理,并通过 JSON-RPC 与 LLM 客户端进行交互;内置 MCP 服务器实现,支持会话管理、能力声明,以及多传输协议适配,面向 AI 代理和上下文服务场景的扩展型后端解决方案。

AI与计算

Dadam Cabinet MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,负责以标准化方式向 LLM 客户端提供上下文信息和功能。核心职责包括托管和管理 资源(Resources)、注册与执行 工具(Tools)、以及定义和渲染 Prompt 模板(Prompts),通过 JSON-RPC 与客户端通信,支持多种传输介质(如 STDIO、HTTP)。仓库内实现了 MCP 服务端核心、工具集合、绘制与 BOM 生成等关键模块,具备可运行的服务端代码与测试用例。

AI与计算

floop MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,用于向 LLM 客户端以标准化方式提供资源、工具、提示等上下文和功能,通过 JSON-RPC 在标准输入输出(stdio)内通信,支持会话管理与多种传输场景,作为后端后端服务为 LLM 应用提供可扩展的上下文服务框架。

AI与计算

Claude Context Optimization MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供上下文优化与工具执行能力,供 LLM 客户端通过标准化的 JSON-RPC 接口读取资源、注册并执行工具、以及渲染和获取优化后的 Prompt,基于 stdio 传输模式实现 MCP 的核心通信。

AI与计算

Sei-MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端以标准化方式提供资源、工具与 Prompt 的注册、执行及渲染能力,并通过 JSON-RPC 进行通信,支持会话管理与多传输协议的后端上下文服务。

AI与计算

Bugsy MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,提供资源托管与管理、注册与执行工具、以及 Prompt 模板的定义与渲染,面向大型语言模型(LLM)客户端,通过 JSON-RPC 与客户端通信,并支持会话管理、能力声明以及多种传输协议(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

网页与API

模型上下文协议(MCP)后端服务器实现—Cocos CLI 组件

基于模型上下文协议(MCP)的后端服务器实现,专注为大语言模型客户端提供标准化的上下文服务:托管资源、注册并执行工具、定义和渲染Prompt模板;通过 JSON-RPC 进行通信,具备会话管理与能力声明,并支持多种传输通道,以实现安全、可扩展的上下文服务框架。

AI与计算

Ada MCP 服务器实现

基于 Model Context Protocol(MCP) 的后端服务,作为本地大模型应用的上下文提供者。该服务器托管与管理 Resources(数据资源)、Tools(可注册并供 LLM 调用的外部功能)以及 Prompts(Prompt 模板渲染),通过 JSON-RPC 与客户端通信,完成会话管理、能力声明以及跨传输协议(如 Stdio、SSE、WebSocket)的上下文服务,方便编辑器、IDE 以及本地模型进行组合式推理与扩展。仓库中明确包含 MCP 集成组件、启动脚本及相关文档,具备对 MCP 客户端的完整支持能力。

AI与计算

GPT4Free MCP 服务器

基于 Model Context Protocol (MCP) 的多模型上下文服务后端,向 LLM 客户端提供资源管理、工具注册与执行、Prompt 模板渲染等核心能力;通过 JSON-RPC 与客户端通信,支持会话管理并兼容多种传输协议(STDIO/SSE/WebSocket),为 AI 应用提供可扩展、安全的上下文服务框架。

AI与计算

sqlew - 基于模型上下文协议的 ADR 记忆与工具后端

一个基于模型上下文协议(MCP)的后端服务器,提供结构化的上下文记忆、资源管理、工具注册与执行,以及 Prompt 模板渲染,面向 AI 客户端以 JSON-RPC 方式进行交互。