基于 Model Context Protocol(MCP) 的后端服务器,实现向大语言模型(LLM)客户端提供 Tweet 数据分析与博客生成功能的工具集合,支持通过标准输入输出和 HTTP SSE 两种传输方式进行 JSON-RPC 交互,具备工具注册、会话管理和多传输能力等核心能力。
基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端提供资源、工具及提示模板的托管、注册与执行,采用 JSON-RPC 进行通信,并具备会话管理与能力声明。该服务器封装了指标计算工具集的对接入口,允许通过 MCP 客户端灵活读取工具信息、执行单/多项指标、获取指标详情等能力。