返回首页

"Prompts 渲染" 标签

28 个结果

标签搜索结果

AI与计算

Turbo EA MCP Server

基于 Model Context Protocol 的后端服务,提供对 Turbo EA 数据的只读访问、资源与工具注册与执行,以及 Prompt 模板定义与渲染,供大语言模型以标准化的 JSON-RPC 方式查询和调用。该仓库实现了一个可运行的 MCP 服务器,包含 OAuth/SSO 集成、REST 风格资源与工具的实现,以及用于 AI 客户端的 Prompts 定义与渲染能力,支持本地测试(stdio 模式)与容器化部署。

AI与计算

Lemma MCP 服务端实现

基于 Lemma 引擎实现的 MCP(Model Context Protocol)服务器,提供对资源、工具与 Prompt 的标准化访问,通过 JSON-RPC 与客户端通讯,支撑 LLM 在后端获取上下文、执行外部功能与渲染提示模板等能力。

AI与计算

Calliope MCP 服务端实现

基于 Model Context Protocol (MCP) 的服务器实现,向大语言模型客户端提供标准化的上下文服务与能力,包括资源管理、工具注册/执行以及提示模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 HTTP/HTTPS、stdio),具备会话管理、能力声明与可扩展的后端架构。

AI与计算

Wheel

一个面向 LLM 应用的多提供商聚合与 MCP 网关实现,提供资源管理、工具注册与执行,以及可渲染的 Prompt 模板,便于通过标准化的 MCP 协议向客户端提供上下文信息和外部功能。通过支持 SSE、HTTP、STDIO 等传输,实现对外部 MCP 服务器的聚合与暴露统一端点的能力。

AI与计算

AgentSpec MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具、Prompts 等上下文信息的托管与渲染,支持通过 JSON-RPC 进行请求/响应,且可通过 stdio 和 HTTP 两种传输方式与 LLM 客户端对接。

AI与计算

MCP_NodeServer – Model Context Protocol 后端服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具和提示(Prompts)的注册、管理与执行,通过 JSON-RPC 与 MCP 客户端通信,支持多传输通道(如标准输入输出)以为大语言模型客户端提供可扩展的上下文服务。

AI与计算

Voyage AI MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,作为后端上下文服务提供者,统一托管资源(Resources)、注册与执行 Tools、以及渲染 Prompt 模板;通过 JSON-RPC 与客户端进行通信,支持多传输模式(如 Stdio、SSE、WebSocket),实现会话管理和能力声明,帮助 LLM 客户端以标准化方式获取上下文、外部功能和提示模板。

AI与计算

Sentinel AI MCP 服务器实现

基于模型上下文协议(MCP)的后端服务,向 MCP 客户端提供资源、工具注册/执行以及提示模板渲染等上下文服务,通过 JSON-RPC 与客户端通信,支持会话管理和多种传输模式以支撑 LLM 应用的安全上下文服务。

开发者工具

Judges Panel MCP 后端服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供39个专门评审维度的资源与工具管理、提示模板渲染,以及面向 LLM 客户端的上下文评审能力;通过 JSON-RPC 与客户端通信,支持多传输协议(如 Stdio、SSE、WebSocket),实现对资源、工具、Prompts 的托管、注册、执行与渲染,便于在 Copilot、Claude、Cursor 等大模型助手中进行高质量的代码审查和上下文服务。

AI与计算

Crow MCP Toolserver

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染,面向大模型客户端以标准化方式提供上下文、数据访问和外部功能。该服务器通过 MCP 协议处理请求并返回 JSON-RPC 响应,支持多种传输方式,作为 Crow 生态中用于执行任务和提供上下文的核心后端。

AI与计算

Octave MCP Server

基于 Model Context Protocol (MCP) 的后端服务,按标准化方式向 LLM 客户端提供资源、工具与 Prompt 模板,并通过 JSON-RPC 进行通信,支持多传输协议与会话管理,适用于以上下文驱动的 AI 应用场景。

AI与计算

Janus MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,为 LLM 客户端提供标准化的资源、工具与提示的暴露和管理,并通过 JSON-RPC 进行远程调用与会话管理,具备可扩展的插件式架构与本地化推理上下文服务。

AI与计算

IronCurtain MCP 服务器框架

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板定义与渲染,并通过 JSON-RPC 与客户端通信的后端服务,支持多传输通道(如标准输入输出、服务器发送事件、WebSocket),具备会话管理、能力声明与策略执行能力,便于向大语言模型客户端提供标准化的上下文信息和外部功能。

AI与计算

VellaVeto MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 MCP 客户端的上下文与能力提供者,托管资源、注册并执行工具、定义与渲染 Prompts,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议(如 stdio、HTTP、WebSocket)等能力,附带可审计的合规证据与安全保障。该实现定位为 MCP 服务器端架构,适合将 LLM 客户端接入到受控的工具与资源生态中。

AI与计算

ChingTech MCP 服务器(Model Context Protocol 服务端)

基于 MCP 架构的后端服务器,向 LLM 客户端标准化提供资源、工具和提示(Prompts)等上下文与能力,通过 JSON-RPC 进行请求/响应,并支持多传输协议(如 Stdio/SSE/WebSocket)与会话管理,用于构建安全、可拓展的 AI 应用后台。

AI与计算

codemem MCP服务器

基于 Model Context Protocol (MCP) 的后端服务实现,向大语言模型客户端提供资源管理、工具注册与执行,以及提示模板渲染等上下文服务,采用 JSON-RPC 风格接口进行通信,支持在本地 SQLite 存储中管理会话、记忆、工具输出等上下文信息。该仓库内含完整的 MCP 服务器实现及相关组件,可作为可运行的 MCP 服务端使用。

AI与计算

BC Telemetry Buddy MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供资源与工具管理、Prompt 注册,以及通过 JSON-RPC 进行与 LLM 客户端的安全对话,支持 stdio 与 HTTP 两种传输模式,适配 Copilot 等对 MCP 的场景需求。

AI与计算

oJob-common MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,提供通过 HTTP SSE/STDIO 传输的 JSON-RPC 风格接口,管理资源、注册与执行工具、定义与渲染提示模板,面向大语言模型(LLM)客户端提供标准化的上下文服务和功能调用能力。

AI与计算

Consult LLM MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 MCP 客户端提供 consulta_llm 工具、资源上下文和提示模板,支持 JSON-RPC 请求/响应,当前实现通过 STDIO 传输进行通信,具备资源管理、工具注册与执行、以及提示渲染等核心能力。

AI与计算

Google Workspace MCP Server

基于 Model Context Protocol 的后端服务器实现,向大型语言模型客户端提供 Google Workspace 的资源、工具和 Prompt 模板,支持多服务整合、认证管理与可扩展的上下文服务。

AI与计算

Tribal Memory MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行,以及 Prompt 模板渲染等能力,通过 JSON-RPC 与 LLM 客户端进行规范化交互,支持多种传输与会话管理,作为 LLM 应用的上下文与功能后端。

AI与计算

AutoForge MCP 服务端

基于模型上下文协议(MCP)的后端实现,用于向 LLM 客户端提供资源管理、工具注册/执行以及 Prompt 模板渲染等能力,并通过 JSON-RPC/WebSocket 等传输协议进行通信。本仓库包含完整的服务端实现、工具暴露、Prompts 加载与渲染、会话管理以及安全策略,能够作为可运行的 MCP 服务器端提供上下文服务。

AI与计算

tooltest MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源与工具的注册/管理、Prompt 的定义与渲染,以及会话管理与协议能力声明,支持通过标准输入输出或流式 HTTP 等传输协议与客户端进行 JSON-RPC 通信,用于为大型语言模型(LLM)提供上下文信息与外部功能访问能力。

AI与计算

MCP Mail 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompts 定义与渲染等能力,并通过 JSON-RPC 风格接口向 LLM 客户端暴露上下文与功能。服务器支持多种传输形式(HTTP)、会话管理、能力声明,以及可拓展的工具与资源生态,提升大模型在编码协作中的上下文服务能力。

AI与计算

FHL Bible MCP Server

基于 Model Context Protocol 的后端服务,向大语言模型客户端提供圣经经文、原文字词、注释及文章等资源的标准化访问与上下文服务,通过 JSON-RPC 进行通信,支持多传输模式、会话管理与能力声明。

AI与计算

Computer MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)渲染,支持 stdio、Web 服务等传输协议,通过 JSON-RPC 与 MCP 客户端通信,向大模型客户端提供上下文、数据访问、外部功能调用等能力。

AI与计算

OpenTiny NEXT-MCP 服务器实现套件

基于 Model Context Protocol 构建的 MCP 服务器实现集合,提供资源与工具的托管、Prompt 定义及渲染能力,并通过 JSON-RPC 与客户端通信,支持多入口输出、浏览器扩展场景,以及跨进程/跨页面的上下文服务能力。

网页与API

MCP Outlet – 通用 MCP 服务器运行时与沙箱代理

基于 Model Context Protocol (MCP) 的后端运行时与代理,提供资源、工具和提示的统一管理,并通过 JSON-RPC 与 MCP 客户端通信,支持多传输协议(stdio、SSE、WebSocket)等,能够在沙箱中运行并托管任意 MCP 兼容的服务器。*