返回首页

"资源查询" 标签

5 个结果

标签搜索结果

AI与计算

SubNetree MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,作为 SubNetree 后端的一部分,统一向大型语言模型客户端提供上下文资源、可注册与执行的工具,以及可渲染的提示模板。当前实现通过标准输入输出传输(stdio)提供 MCP 服务,内部通过 ReconStore/vault 等模块暴露设备与硬件信息、服务清单等资源,并注册一组工具供 LLM 客户端查询与操作,同时以 JSON-RPC 方式进行请求/响应通信,适合与 Claude Desktop 等客户端进行集成和对接。

AI与计算

ACK Protocol MCP Server

基于模型上下文协议(MCP)的后端服务实现,提供以标准化 JSON-RPC 形式通过 SSE 传输向 LLM 客户端提供上下文信息、资源、工具以及提示模板等能力,支持多工具调用与资源查询等 MCP 核心功能。

AI与计算

Introspectum MCP 服务端

基于 MCP 协议的后端服务,提供资源、工具、提示模板等的托管、注册、执行与渲染,通过 JSON-RPC 与 LLM 客户端通信,当前实现支持基于标准输入输出的简单传输模式,便于与模型对话系统进行上下文服务和功能调用协作。

AI与计算

Memo MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源索引查询、工具调用与提示渲染能力;通过 JSON-RPC(以标准输入输出传输)与客户端进行通信,支持会话管理、能力声明和简单的状态监控,便于将本地代码库上下文提供给大语言模型客户端使用。

AI与计算

Nebula Block GPU资源MCP服务器

通过MCP协议为LLM提供Nebula Block GPU资源信息和查询工具。