标签搜索结果
基于 Raven Docs 的 MCP 服务器实现,提供按 MCP 标准的资源、工具、提示模板等上下文服务的托管与访问,支持 HTTP API 与 WebSocket 实时事件推送,供大模型客户端获取上下文、注册工具并执行外部功能。
基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册/执行、Prompt 模板渲染以及面向 LLM 客户端的上下文服务,支持 stdio 与 HTTP 等传输、外部 MCP 联邦等扩展能力,旨在为渗透测试场景中的 AI Copilot 提供标准化的上下文与执行能力。
该服务器作为LLM与Observe可观测性平台之间的安全桥梁,通过MCP协议提供Observe API功能、OPAL查询辅助和故障排除手册访问。