标签搜索结果
基于 Model Context Protocol (MCP) 的服务器实现,作为后端服务向 LLM 客户端提供上下文和功能,核心能力包含资源、工具与提示模板的托管与执行,通过标准输出(stdio)与客户端进行通信,并可从本地 Git 仓库分析提交生成结构化的 CSV 报告。该实现通过 MCP 服务框架注册工具,暴露以日期区间为输入的报告生成功能、将结果写入本地文件系统、并提供服务器状态检查能力。
提供一个 MCP 服务器,允许 LLM 客户端安全地访问和列出本地文件系统中的文件。
该项目是一个本地文件系统MCP服务器示例,允许AI代理通过资源和工具访问和操作本地文件。