AI与计算

2628 个服务器

AI与计算工具包括机器学习框架、计算平台和AI模型。这些MCP服务器使AI助手能够训练模型、处理复杂计算和进行数据分析。

Officetracker MCP 服务端

基于 Model Context Protocol(MCP)的后端实现,提供资源、工具和提示模板的上下文服务,供 LLP/LLM 客户端通过 JSON-RPC 方式访问办公室出勤数据,并在 HTTP 端点 /mcp/v1/ 提供 MCP 服务能力与工具执行能力。

Strands Agent SOP MCP 服务器

一个基于 Model Context Protocol (MCP) 的后端服务,加载内置与外部 SOP,将它们作为可调用的提示注册,通过 FastMCP 提供 JSON-RPC 服务供 MCP 客户端访问,用于向大型语言模型提供结构化上下文和功能性提示。

cc-switch MCP 服务器端实现

基于 Model Context Protocol(MCP)的本地后端,作为后台服务端组件,统一管理资源、工具与提示词等上下文相关对象,支持多应用场景(Claude、Codex、Gemini)在本地进行 MCP 服务器的创建、导入、配置与同步,并通过数据库作为单一数据源实现 SSOT,帮助本地 LLM 客户端获得一致的上下文服务能力与快速切换能力。

NVIDIA Blog MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供对 NVIDIA 官方博客内容的上下文服务、向 LLM 客户端暴露检索、工具调用与提示模板渲染等能力,支持多种传输方式并实现 JSON-RPC 风格的交互。

SSH-SFTP MCP 服务器

基于模型上下文协议(MCP)的后端实现,提供对远程服务器的 SSH 命令执行、SFTP 文件操作与会话管理等能力,供大型语言模型客户端通过 JSON-RPC 调用获取上下文、执行工具并管理会话。

Agentic Reliability Framework - OSS MCP 服务器

基于 Model Context Protocol (MCP) 的 OSS 版后端实现,提供对接 LLM 客户端的分析与边界执行能力。通过处理 MCP 请求/响应,向客户端提供工具分析、资源/记忆图(RAG)与 HealingIntent 的企业对接入口,采用 Advisory 模式以确保安全可控的上下文服务。

Degasser Design MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 degasser(脱气塔)设计的资源管理、工具执行(Tier 1/2/3)、以及基于 Prompts 的交互模板渲染等功能,并通过 JSON-RPC 与 LLM 客户端通信,支持后台作业、成本评估和分层仿真等能力。

ADAM MCP 服务器

基于 Model Context Protocol (MCP) 的多服务后端,整合天气、汇率、股票、新闻、家居传感器等子服务,通过 FastMCP 提供统一的 MCP 接口供 LLM 客户端查询资源、调用工具与获取提示模板等上下文服务。

MCP Gitea 服务端

基于 Model Context Protocol 的 MCP 服务器,向大型语言模型客户端提供对 Gitea 实例的资源、工具与提示模板等上下文能力,支持资源访问、工具调用与提示渲染。