基于 Model Context Protocol(MCP)的后端服务器,面向 AI 客户端暴露资源、注册并执行工具、以及定义/渲染提示模板,支持通过 SSE/stdio 等传输协议与 AI 代理进行交互,用于提供财务数据上下文和能力扩展。
基于 Model Context Protocol 的服务端实现,作为 MCP 后端为 LLM 客户端提供资源、工具与提示模板的标准化上下文服务,并通过 JSON-RPC 与客户端进行通信,支持多种传输方式(此实现以标准输入输出为传输层)。
基于 Model Context Protocol 的后端服务器实现,提供资源托管、工具注册与执行、提示模板管理,并通过 JSON-RPC 与客户端进行通信,支持多传输协议、会话管理与权限策略,以为大模型客户端提供安全、可扩展的上下文服务。
基于 Model Context Protocol 的多模 MCP 服务器实现集合,提供资源管理、工具执行、模板与知识管理等功能,支持 JSON-RPC 通信和多传输通道,覆盖内存、搜索、浏览器、邮件、数据库等多种外部能力的统一后端服务。
Caramba MCP Server是一个基于Go语言的MCP服务器实现,旨在为LLM客户端提供资源、工具和Prompt模板等上下文服务。
AutoGPT Forge是一个用于构建和部署基于Agent Protocol (MCP) 的应用后端的框架,提供资源管理、工具注册和Prompt模板定义等核心功能。