标签搜索结果
基于模型上下文协议(MCP)的后端服务器实现,提供对 S3 兼容存储的资源管理、工具注册与执行、以及输出的提示模板等能力,支持多连接、可扩展中间件/拦截器与多传输协议,面向让大语言模型客户端以标准化方式访问对象存储与相关功能。
基于 FastMCP 的 MCP 服务器,实现对资源、工具与 prompts 的统一管理,并通过 Streamable HTTP 向 LLM 客户端提供图片/文件上传、列表查询等能力,底层使用 MinIO 进行对象存储。
一个MCP服务器,将MinIO对象存储的操作暴露为大型语言模型(LLM)可调用的工具,实现智能化的云存储管理。
基于MCP协议,通过LLM访问和操作华为云资源(如ECS、OBS)的后端服务。
通过Spring Boot和Spring AI,将Cloudflare R2对象存储功能暴露为MCP工具供LLM调用。
腾讯云COS MCP Server作为LLM的后端,提供文件存储、处理及多媒体AI能力,无需编码即可快速接入腾讯云COS和数据万象服务。
基于七牛云构建的 MCP 服务器,提供对象存储 Kodo 和 Dora 服务的资源访问和工具调用能力。
Tigris MCP 服务器为LLM客户端提供访问和管理Tigris对象存储服务的工具,实现云存储资源的便捷操作。
基于MCP协议的服务器,提供对AWS S3云存储服务的访问和管理功能。
该项目是一个MCP服务器实现,提供访问和管理AWS S3存储桶的工具,允许LLM客户端安全地与S3资源互动。
AIStor MCP Server是一个连接大语言模型与AIStor对象存储的桥梁,提供对象存储的数据访问和AI工具能力,增强LLM的上下文理解和应用能力。
AIStor MCP Server是为LLM应用设计的后端服务,提供AIStor对象存储的资源访问和工具调用能力,支持LLM安全可扩展地访问对象存储服务。
Eyevinn OSC MCP服务器为LLM客户端提供访问和管理Eyevinn Open Source Cloud平台资源(如数据库、存储、VOD管道)的能力,通过工具调用实现云服务操作。