基于 Model Context Protocol 的 MCP 服务器实现,利用 Google Gemini API 提供图像生成与编辑能力,并对外暴露资源、工具调用与提示模板等能力,供大语言模型客户端以统一的上下文服务进行交互。
基于 Model Context Protocol 的 MCP 服务器实现,提供工具调用、资源与提示管理,以及对外部能力的扩展,通过 JSON-RPC 在标准输入输出(STDIO)或未来扩展的传输方式与客户端交互。
基于 Model Context Protocol (MCP) 的后端实现,作为 Claude Code Harness 的核心服务之一,负责托管资源(Resources)、注册及执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与 LLM 客户端进行标准化交互,提供上下文信息、数据访问与外部功能调用等能力,支持多种传输方式(如标准输入输出、SSE、WebSocket 等)以实现安全、可扩展的后端上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务器,提供对 Microsoft Access 数据库的资源管理、工具注册与执行以及提示模板渲染等能力,供大语言模型客户端通过 JSON-RPC 调用以获取上下文和功能支持。
基于模型上下文协议(MCP)的后端服务器,用于向 LLM 客户端暴露资源、工具和模板等上下文信息,并通过多传输协议与客户端通信,专为 Claude Code 的 Kimi 集成场景提供可扩展的上下文服务。
一个基于 Node.js 和 TypeScript 的 MCP 服务器,使 LLM 能够直接查询和交互 Snowflake 数据库。
基于 Model Context Protocol (MCP) 为 Amazon SES v2 提供接口的示例服务器,支持通过LLM客户端访问和调用SES功能。
连接大型语言模型(LLM)与去中心化物理基础设施网络(DePIN),构建可感知现实世界的先进AI代理后端。