基于 Model Context Protocol(MCP)的后端服务器实现,作为 wt-tools 生态的一部分,向 LLM 客户端提供标准化的上下文信息与功能接口。核心能力包括托管与管理 资源(Resources,如工作树、Ralph 循环状态、团队活动等)、注册并执行 Tools、以及定义/渲染 Prompt 模板等,所有交互通过 JSON-RPC 协议完成,并支持多种传输方式(如 STDIO)。
基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端提供对 amdWiki 内容、资源、工具和提示模板的上下文化访问,并通过 JSON-RPC 进行通信与能力声明
基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具和提示模板的注册与暴露,供 LLM 客户端通过 JSON-RPC 与之通信,从而向客户端提供可验证的代码上下文、外部功能调用与自定义提示渲染能力,并支持流式传输的 MCP 应用接口。