返回首页

"容器化执行" 标签

5 个结果

标签搜索结果

AI与计算

HappyClaw MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,嵌入 HappyClaw 的 Claude Code 运行时,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等 MCP 核心能力,支持多用户工作区、流式推理与多渠道交互。

AI与计算

SlimClaw MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 SlimClaw 的内部 MCP 服务端,向 LLM 客户端以标准化的 JSON-RPC 形式提供资源管理、工具注册与调用、以及提示模板渲染等能力;通过标准的传输(如 stdin/stdout)与容器化执行环境进行交互,支撑多组会话、任务调度与分组上下文管理等功能。

AI与计算

InfiniClaw MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,面向大语言模型客户端提供标准化的上下文服务。

AI与计算

ez-xbow-platform-mcp

基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端提供资源管理、工具执行和提示模板等上下文服务,支持多传输协议、会话管理与本地历史记录,为 AI 驱动的安全挑战赛场景提供后端支撑。

AI与计算

ipybox MCP 服务器端

基于 MCP(Model Context Protocol)的后端实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,并通过 JSON-RPC 与客户端通信,同时支持多种传输协议(stdio、流式HTTP、SSE)、会话管理与沙箱等安全特性,构建面向大型语言模型的上下文服务框架。