返回首页

"Resource management" 标签

5 个结果

标签搜索结果

AI与计算

Ship Safe Model Context Protocol 服务端

基于 Model Context Protocol(MCP)的后端服务,向大型语言模型(LLM)客户端提供标准化的资源托管、工具注册与执行,以及 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端进行通信,支持可扩展的传输方式与会话管理。

AI与计算

Ouroboros MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器,提供资源托管、工具注册与执行、以及提示模板渲染等能力,并通过 JSON-RPC 与客户端通信;支持会话管理、能力声明與多传输协议接入,形成可扩展的 LLM 上下文服务框架。该仓库包含完整的 MCP 服务端实现、客户端适配、工具与资源注册,以及相关的测试与示例。注:文档和示例中的实现细节来自代码库中的 mcp 目录及相关模块。

AI与计算

AgentCard MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源托管、工具注册与执行、以及提示模板渲染,通过 JSON-RPC 与客户端通信,支持 HTTP、stdio 等传输方式,供 LLM 客户端安全、可扩展地获取上下文信息与功能。

AI与计算

Prism MCP 服务器(基于 Model Context Protocol 的后端服务)

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具、提示模板等的注册、管理与执行能力,并通过 JSON-RPC 形式对接 LLM 客户端,支持会话管理、能力声明以及多传输通道(如 HTTP、StdIO、SSE/WebSocket 之类扩展)的上下文服务框架。

AI与计算

MCP Test Server for Model Context Protocol (MCP)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)、工具(Tools)和提示模板(Prompts)等能力,并通过 JSON-RPC 形式与 LLM 客户端交互,支持多种传输方式(如 STDIO、HTTP)。