标签搜索结果
基于 Model Context Protocol (MCP) 的自我进化 MCP 服务器实现。该仓库提供一个可运行的 MCP 服务器(名为 RunaMCP),内置动态工具注册、代码读取/生成与 GitHub 集成等功能,目标是在 MCP 客户端通过 JSON-RPC 与其进行资源管理、工具执行和提示渲染等交互。该服务器可与自带的客户端实现协同工作,在集成目录中自动发现并管理工具脚本,支持在运行时扩展能力。
基于 Model Context Protocol(MCP)的后端服务器实现集合,提供文件系统相关工具与浏览器自动化工具的 MCP 服务端接口,支持资源管理、工具注册与执行、并可通过 JSON-RPC 与 LLM 客户端进行交互。
基于 Model Context Protocol (MCP) 的服务器实现,作为本地开发助手的后端服务,向 AI 客户端以标准化的 JSON-RPC 方式暴露“资源、工具与提示模板”的上下文能力。服务器内置数据存储、权限与速率限制、工具路由、工作流与时间机器等模块,支持多种传输通道(当前以 stdio 为主),并具备多实例管理、后台进程执行与可扩展的 MCP 功能集合。
基于 MCP 协议,为 LLM 客户端提供阶段式项目初始化和工作流管理上下文服务。
为AI辅助开发提供持久化项目上下文的MCP服务器,帮助AI助手记忆项目信息和开发进度。