基于 Model Context Protocol (MCP) 的后端实现,提供资源、工具、提示模板等上下文服务,通过 JSON-RPC 与大语言模型客户端交互,整合 Qualys 安全数据并支持模块化扩展。
基于 Argus 网关实现的 MCP 服务器,提供稳定的 JSON-RPC 交互,向 MLP/LLM 客户端暴露资源、工具、提示模板等能力,并通过会话级授权实现隔离化访问,同时集成 Telegram 机器人入口与后台任务调度/心跳机制,实现资源管理、工具调用与 prompts 的统一管理和渲染。
一个面向大语言模型客户端的后端网关框架,能够聚合、管理多组服务器、工具、资源,并通过标准化的 JSON-RPC 通信向客户端提供上下文和外部功能。支持多种传输方式(如 HTTP、stdio、SSE),并包含资源/工具/提示的注册、渲染、执行及对话上下文管理能力。
一个将 MCP 客户端与 MCP 服务器对接的安全网关,提供资源管理、工具注册与执行、Prompt 模板渲染等功能,基于 Model Context Protocol(MCP)以 JSON-RPC 与客户端通信,支持鉴权、工具自动发现、缓存和 Guardrails 等安全保护。
基于 Model Context Protocol 的多 MCP 服务器后端网关,提供统一的 JSON-RPC 服务来托管资源、注册工具并渲染提示模板,通过 FastAPI 将多个独立 MCP 服务器整合为一个可扩展的上下文服务入口。
将 OpenAPI 规范自动转换为 Model Context Protocol (MCP) 服务实例,使 LLM 能调用通过 OpenAPI 定义的后端能力。