AI与计算

4026

AI与计算工具包括机器学习框架、计算平台和AI模型。这些MCP服务器使AI助手能够训练模型、处理复杂计算和进行数据分析。

AI与计算

EPLAN MCP 服务器 - 模型上下文协作后端

基于 Model Context Protocol (MCP) 的后端服务器,实现对 EPLAN 自动化的资源、工具和提示模板的托管与执行。通过 JSON-RPC 风格的 MCP 接口与客户端通信,支持多种传输协议(StdIO、SSE、HTTP),为 LLM 客户端提供安全、可扩展的上下文服务与工具执行能力。

AI与计算

Claude Code Starter Kit MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,暴露 Claude Code Starter Kit 的命令与代理为可通过 JSON-RPC 调用的工具,供 MCP 客户端集成使用。

AI与计算

succ MCP 服务器实现

基于 Model Context Protocol(MCP)的完整服务器实现,提供资源、工具、提示模板等的标准化后端服务,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多种传输方式。

AI与计算

Turbo EA MCP Server

基于 Model Context Protocol 的后端服务,提供对 Turbo EA 数据的只读访问、资源与工具注册与执行,以及 Prompt 模板定义与渲染,供大语言模型以标准化的 JSON-RPC 方式查询和调用。该仓库实现了一个可运行的 MCP 服务器,包含 OAuth/SSO 集成、REST 风格资源与工具的实现,以及用于 AI 客户端的 Prompts 定义与渲染能力,支持本地测试(stdio 模式)与容器化部署。

AI与计算

0nMCP — 基于 MCP 的通用 AI API 编排服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示模板的统一管理与暴露,通过 JSON-RPC 与 LLM 客户端通信,支持本地运行、HTTP API 与多传输协议(如 stdio、SSE、WebSocket),实现本地化的 API 编排、任务执行和对话式上下文服务。

AI与计算

context-use MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务器端实现,提供对内存/资源的暴露、工具注册与执行,以及与客户端的 JSON-RPC 交互能力,支持通过不同传输协议与 LLM 客户端通信以提供上下文服务和记忆能力。

AI与计算

FusionCHMIngest MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供对 Fusion360 API 文档的语义检索、类/方法文档获取与示例代码查询等功能,并通过 JSON-RPC 与 LLM 客户端交互,支持与 Claude、Cursor、VS Code Copilot 等工具的集成。

AI与计算

WhatsApp MCP-Go 服务器

基于 Model Context Protocol (MCP) 的 WhatsApp 后端服务器实现,使用 Go 语言编写,提供工具注册与执行、会话管理与多传输模式支持,旨在为大模型客户端提供统一的资源访问、外部功能调用和上下文渲染能力,并可与 WhatsApp Bridge 集成使用以实现对话上下文的实时服务。

AI与计算

Cuba-Exec MCP 服务器

基于 Model Context Protocol (MCP) 架构的后端服务器,实现对外部命令执行、后台进程管理、输出截断与安全策略的统一上下文服务,面向 LLM 客户端提供资源、工具与提示的标准化接口。