返回首页

"GPU 加速" 标签

2 个结果

标签搜索结果

AI与计算

DREDGE Quasimoto MCP 服务器(Quasimoto 波函数与字符串理论集成)

基于 Model Context Protocol (MCP) 的后端服务器,用于托管/管理 Quasimoto 波函数模型与字符串理论模型,支持模型加载、推理、参数查询、基准测试、以及 MCP 协议的 JSON-RPC 风格请求/响应,通过 JSON-RPC 风格的 /mcp 端点提供统一的模型服务能力。可选启用缓存与监控、依赖管理等扩展特性,并具备与 GitHub Dependabot、GPU/CPU 计算环境的对接能力。

AI与计算

SeedVR2 MCP 服务器(Upscaler)

基于 Model Context Protocol (MCP) 的 SeedVR2 视频/图片放大后端,提供 MCP 接口以注册工具并执行图像/视频放大以及查询 GPU 状态等功能,支持通过 JSON-RPC 与 MCP 客户端进行资源与功能调用。