返回首页

"沙箱执行" 标签

6 个结果

标签搜索结果

AI与计算

Dynamic MCP 服务器

基于 Model Context Protocol(MCP)的生产就绪后端实现,提供运行时工具注册、执行沙箱、资源与提示管理,并通过 JSON-RPC 与 LLM 客户端进行上下文服务与功能调用。

AI与计算

Context Mode MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 Claude Code 等 MCP 客户端的上下文服务提供者。该服务器负责管理资源(内容知识库)、注册并执行工具(如执行代码、索引、查询、抓取并索引等),定义并渲染 Prompt 模板,支持通过 JSON-RPC 与客户端通信,提供会话管理、能力声明以及可扩展的传输协议支持(例如 StdIO 传输)。

AI与计算

skills.rs - Infinite Skills MCP Server

一个基于 Model Context Protocol (MCP) 的后端服务器实现,聚合多个上游 MCP 服务器与 Skills/Tools,提供统一的发现、执行和技能管理能力,并通过四个核心 MCP 工具对外暴露(search、schema、exec、manage)。这套实现同时支持多种传输模式(stdio、HTTP 等),并具备沙箱执行、WASM 支持、SQLite 持久化等企业级特性,适合作为 LLM 的上下文+能力服务端。

AI与计算

SkillLite MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,负责向 LLM 客户端以标准化格式提供技能资源、工具注册与执行、以及 Prompt 模板的渲染,支持会话管理、能力声明,并通过 JSON-RPC 与客户端进行通信,具备沙箱化执行、工具调用以及多传输协议的能力。该实现包含服务器端逻辑、工具/技能管理、以及对外暴露的 MCP 接口,属于服务器端实现而非仅仅的客户端示例。

AI与计算

ipybox MCP 服务器端

基于 MCP(Model Context Protocol)的后端实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等核心能力,并通过 JSON-RPC 与客户端通信,同时支持多种传输协议(stdio、流式HTTP、SSE)、会话管理与沙箱等安全特性,构建面向大型语言模型的上下文服务框架。

AI与计算

AI Meta MCP Server

一个动态的MCP服务器,允许AI模型创建和执行自定义工具,扩展自身能力。