基于 Model Context Protocol 的 MCP 服务器实现,提供可执行的 Windows 命令工具集合。通过 JSON-RPC/STDIO 与 LLM 客户端通信,具备命令执行安全控制、进程管理、以及 anti-hang/防僵死机制,旨在为 AI 助手在本地 Windows 环境提供可控的上下文能力与工具入口。
基于 Model Context Protocol (MCP) 的后端服务,提供代码分析快照管理、海外资源托管、工具执行以及对话模板渲染,供 LLM 客户端通过 JSON-RPC/HTTP+SSE 等传输方式进行交互。
通过 MCP 标准协议,将 Kali Linux 安全工具集成到 LLM 客户端,提供沙箱化、可配置的工具执行能力。