基于 Model Context Protocol(MCP)的后端服务器,面向 AI 客户端暴露资源、注册并执行工具、以及定义/渲染提示模板,支持通过 SSE/stdio 等传输协议与 AI 代理进行交互,用于提供财务数据上下文和能力扩展。
基于模型上下文协定(MCP)的后端服务器实现,提供资源管理、工具注册/执行、以及提示模板渲染等核心能力,并通过 JSON-RPC/SSE 提供给 LLM 客户端使用的上下文服务与功能调用入口,同时包含 REST API、权限与计费等完整实现。
基于 Model Context Protocol 的后端服务实现,提供资源、工具、提示等统一管理,并通过 JSON-RPC 与 LLM 客户端进行交互,支持多种传输方式(如 SSE)。完整的 MCP 服务器端实现,包含服务初始化、挑战/结果管理、评测与分析、以及对外暴露的健康端点。