返回首页

"资源与工具托管" 标签

8 个结果

标签搜索结果

AI与计算

AI Product Manager MCP Servers

基于 Model Context Protocol 的多服务器实现集合,为大语言模型客户端提供资源、工具和提示模板等上下文服务,并通过 JSON-RPC 进行标准化通信,以支持资源访问、工具注册/执行以及提示模板渲染等能力。

AI与计算

Overlord MCP 服务端集成

Overlord 提供基于 Model Context Protocol (MCP) 的服务器端实现,用于向 LLM 客户端以标准化的上下文服务方式暴露资源与工具、执行工具、以及可渲染的提示模板,并通过 JSON-RPC/Socket.IO 等协议进行通信,同时对 MCP 子服务器进行托管、管理与自动重连。

AI与计算

meridian-channel MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,暴露资源、工具和提示模板,通过 JSON-RPC 与客户端通信,支持会话管理与可扩展的传输协议。

AI与计算

Cognithor MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端实现,作为 LLM 客户端的上下文提供与能力服务中心,负责托管资源、注册并执行工具、定义与渲染提示模板,并通过 JSON-RPC 在多种传输通道上与客户端通信,支持会话、能力声明与安全沙箱机制的扩展能力。

AI与计算

SuperNovae MCP 服务器实现

基于 Model Context Protocol 的后端服务器实现,提供资源及工具托管、Prompt 渲染等能力,并通过 JSON-RPC 风格的 MCP 协议在 Unix 域套接字上与客户端进行通信与协作。

开发者工具

kubectl-mtv MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,作为与大语言模型(LLM)客户端的标准化上下文服务入口,提供资源管理、工具注册/执行以及提示模板的渲染能力,支持 JSON-RPC 交互与多种传输模式(如 stdin/stdout、SSE、WebSocket),并具备会话管理、能力声明和动态工具发现等特性。该服务器以 kubectl-mtv 项目内的实现为基础,能够与客户端通过 JSON-RPC 请求交互,提供迁移相关的资源、工具及提示信息的上下文服务。

AI与计算

QuickCall Integrations MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型客户端以标准化方式提供资源、工具和提示模板的访问与执行能力,支持身份认证、GitHub/Slack 集成、资源读取以及多种传输协议的上下文服务。

AI与计算

Rulekit MCP 服务端

基于 Model Context Protocol(MCP)的模块化后端服务器,用于向大型语言模型客户端提供可共享的规则、资源、工具与提示模板,通过 JSON-RPC/HTTP-SSE 等传输方式实现对上下文的托管、检索与执行。