返回首页

"Prompt templates" 标签

7 个结果

标签搜索结果

AI与计算

Ouroboros MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器,提供资源托管、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与客户端通信;支持会话管理、能力声明與多传输协议接入,形成可扩展的 LLM 上下文服务框架。该仓库包含完整的 MCP 服务端实现、客户端适配、工具与资源注册,以及相关的测试与示例。注:文档和示例中的实现细节来自代码库中的 mcp 目录及相关模块。

AI与计算

Harness MCP Server v2

基于 Model Context Protocol 的完整 MCP 服务器实现,实现资源托管、工具注册与执行,以及提示模板渲染,支持 Stdio 与 HTTP 传输,面向 LLM 客户端提供标准化的上下文服务。

网页与API

Local Deep MCP Server

基于 Model Context Protocol (MCP) 的本地后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等能力,供 LLM 客户端通过标准化的 JSON-RPC 进行资源读取、工具调用与提示渲染。实现了多传输协议(如 STDIO、SSE、WebSocket)下的通信,具备会话管理与能力声明,旨在为本地化的上下文服务与推理工作流提供结构化的后端支撑。

AI与计算

SecureYeoman MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务端实现,提供资源托管、工具注册/执行与提示模板渲染等能力,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(如 stdio、SSE、WebSocket),实现自托管的上下文服务框架。

AI与计算

Kernle MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源管理、工具执行与提示模板渲染等功能。服务器通过 JSON-RPC 与客户端进行通信,支持资源读取、工具注册/执行、以及提示模板的定义与渲染,並可通过多种传输方式(如标准输入输出、SSE、WebSocket)扩展到不同的应用场景。该实现与 Kernle 的核心存储/推理能力紧密集成,面向企业/研究场景提供安全、可扩展的上下文服务后台。

AI与计算

MCP Test Server for Model Context Protocol (MCP)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)、工具(Tools)和提示模板(Prompts)等能力,并通过 JSON-RPC 形式与 LLM 客户端交互,支持多种传输方式(如 STDIO、HTTP)。

AI与计算

Supertag MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,面向 LLM 客户端提供资源、工具和 Prompt 的标准化上下文服务,并通过 JSON-RPC 进行通信;支持会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket)的扩展能力,适用于将 Tana 数据和功能暴露给 AI 模型进行推理、调用和渲染。