返回首页

"工具与资源管理" 标签

9 个结果

标签搜索结果

开发者工具

Lobster MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,使用 JSON-RPC 与 LLM 客户端通信,支持多传输协议以实现安全、可扩展的上下文服务。

AI与计算

Synaptiq MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,向 AI 客户端提供代码知识上下文、资源、工具及 Prompt 管理能力,使用 JSON-RPC 与客户端通信,支持多传输协议(StdIO/SSE/WebSocket),并在本地存储中管理知识图谱及推理相关功能。

AI与计算

SnapTray MCP 服务端

基于 Model Context Protocol (MCP) 的本地 MCP 服务器集成于 SnapTray 主应用,向本地的 LLM 客户端提供资源、工具与 Prompt 模板的统一访问与执行能力,并通过本地 HTTP 的 JSON-RPC 进行通信。

网页与API

Gridctl-MCP 网关与服务器框架

一个面向大语言模型客户端的后端网关框架,能够聚合、管理多组服务器、工具、资源,并通过标准化的 JSON-RPC 通信向客户端提供上下文和外部功能。支持多种传输方式(如 HTTP、stdio、SSE),并包含资源/工具/提示的注册、渲染、执行及对话上下文管理能力。

网页与API

Sofia Intuition MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端提供资源托管、工具注册与执行,以及可渲染的 Prompt 模板等标准化上下文服务,支持多种传输协议(如 SSE、HTTP)并通过 JSON-RPC 与客户端交互。

AI与计算

Baichuan MCP Servers - 医疗场景的 MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册与执行、以及 Prompts 渲染等 MCP Apps 功能,支持多传输模式(STDIO、SSE、HTTP),用于向 LLM 客户端提供标准化的上下文信息和能力。

AI与计算

StreamNative MCP Server

基于 Model Context Protocol (MCP) 的后端服务,用于向大语言模型(LLM)及其代理提供资源数据、可执行工具以及可定制的 prompts,支持通过 JSON-RPC 与客户端通信,并可通过 stdio、SSE 等传输协议进行多会话场景下的上下文服务整合。该实现整合了 StreamNative Cloud、Apache Kafka 和 Apache Pulsar 等资源与能力,便于 AI 应用访问和操作海量分布式系统。

AI与计算

Tribal Memory MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行,以及 Prompt 模板渲染等能力,通过 JSON-RPC 与 LLM 客户端进行规范化交互,支持多种传输与会话管理,作为 LLM 应用的上下文与功能后端。

AI与计算

Midnight MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供资源、工具、Prompts 的注册、管理与渲染,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议接入,面向 LLM 的上下文服务与功能扩展。