返回首页

"prompts" 标签

8 个结果

标签搜索结果

AI与计算

Copilot Memory Store MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供可持久化内存存储、工具注册、Prompts、资源端点,以及通过 JSON-RPC 与客户端通信的 MCP 服务器,当前实现采用标准输入输出(STDIO)传输。

AI与计算

MCP Annotated Java Server SDK

基于注解的 MCP 服务器框架,用于向 LLM 客户端提供上下文信息和功能,包括托管资源、注册工具、定义提示模板,并支持 STDIO、SSE、STREAMABLE 等传输模式。

AI与计算

ragweld 基于 Model Context Protocol 的 MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具注册与执行、Prompt 模板定义与渲染,并通过 JSON-RPC 方式与 MCP 客户端通信,支持嵌入式 MCP 传 transport(如 HTTP/Streams),用于向大型语言模型客户端提供可扩展的上下文与功能服务。

AI与计算

bazzite-mcp MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务,提供资源、工具与提示模板的标准化访问,用于让 AI/LLM 客户端以结构化上下文与能力与本地系统进行交互,并通过 JSON-RPC 等传输协议与客户端沟通。

AI与计算

Sift MCP Gateway

基于 Model Context Protocol (MCP) 的后端服务,提供资源(Resources)托管与管理、工具(Tools)的注册和执行、以及 Prompt 模板的定义与渲染,面向大语言模型(LLM)客户端,通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议(如 StdIO/SSE/WebSocket)的上下文服务框架。

网页与API

Orderly Network MCP 服务器

基于模型上下文协议(MCP)的后端服务器,向LLM客户端提供资源管理、工具执行和提示模板等上下文信息,支持多传输协议(如 Stdio、HTTP/WebSocket),通过 JSON-RPC 进行请求-响应交互。该实现覆盖资源、工具、Prompts 的注册、查询与渲染,以及会话管理与安全能力声明等核心功能,构成可扩展的对话上下文服务框架。

AI与计算

Axiom MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向 LLM 客户端通过标准化的 JSON-RPC 方式提供资源、工具与提示模板等上下文信息,并支持开发/生产两种模式、以及通过标准传输通道进行通信。

AI与计算

aimem MCP 服务器

基于 Model Context Protocol (MCP) 的本地化上下文服务后端,实现对资源、工具和提示模板的托管与管理,供 LLM 客户端通过 JSON-RPC 调用以获取上下文、执行工具与渲染提示模板。