AI与计算
共 2628 个服务器
AI与计算工具包括机器学习框架、计算平台和AI模型。这些MCP服务器使AI助手能够训练模型、处理复杂计算和进行数据分析。
一个基于 Model Context Protocol (MCP) 的后端服务,加载内置与外部 SOP,将它们作为可调用的提示注册,通过 FastMCP 提供 JSON-RPC 服务供 MCP 客户端访问,用于向大型语言模型提供结构化上下文和功能性提示。
基于 Model Context Protocol (MCP) 的后端服务器,提供对 NVIDIA 官方博客内容的上下文服务、向 LLM 客户端暴露检索、工具调用与提示模板渲染等能力,支持多种传输方式并实现 JSON-RPC 风格的交互。
基于 Model Context Protocol (MCP) 的 OSS 版后端实现,提供对接 LLM 客户端的分析与边界执行能力。通过处理 MCP 请求/响应,向客户端提供工具分析、资源/记忆图(RAG)与 HealingIntent 的企业对接入口,采用 Advisory 模式以确保安全可控的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 degasser(脱气塔)设计的资源管理、工具执行(Tier 1/2/3)、以及基于 Prompts 的交互模板渲染等功能,并通过 JSON-RPC 与 LLM 客户端通信,支持后台作业、成本评估和分层仿真等能力。