AI与计算
4026 个AI与计算工具包括机器学习框架、计算平台和AI模型。这些MCP服务器使AI助手能够训练模型、处理复杂计算和进行数据分析。
基于 Model Context Protocol 的 MCP 服务器实现,暴露 Claude Code Starter Kit 的命令与代理为可通过 JSON-RPC 调用的工具,供 MCP 客户端集成使用。
基于 Model Context Protocol 的后端服务,提供对 Turbo EA 数据的只读访问、资源与工具注册与执行,以及 Prompt 模板定义与渲染,供大语言模型以标准化的 JSON-RPC 方式查询和调用。该仓库实现了一个可运行的 MCP 服务器,包含 OAuth/SSO 集成、REST 风格资源与工具的实现,以及用于 AI 客户端的 Prompts 定义与渲染能力,支持本地测试(stdio 模式)与容器化部署。
基于 Model Context Protocol 的 MCP 服务器端实现,提供对内存/资源的暴露、工具注册与执行,以及与客户端的 JSON-RPC 交互能力,支持通过不同传输协议与 LLM 客户端通信以提供上下文服务和记忆能力。
基于 Model Context Protocol (MCP) 的后端实现,提供对 Fusion360 API 文档的语义检索、类/方法文档获取与示例代码查询等功能,并通过 JSON-RPC 与 LLM 客户端交互,支持与 Claude、Cursor、VS Code Copilot 等工具的集成。
基于 Model Context Protocol (MCP) 的 WhatsApp 后端服务器实现,使用 Go 语言编写,提供工具注册与执行、会话管理与多传输模式支持,旨在为大模型客户端提供统一的资源访问、外部功能调用和上下文渲染能力,并可与 WhatsApp Bridge 集成使用以实现对话上下文的实时服务。