标签搜索结果
基于模型上下文协议(MCP)的后端服务,向 MCP 客户端提供资源、工具注册/执行以及提示模板渲染等上下文服务,通过 JSON-RPC 与客户端通信,支持会话管理和多种传输模式以支撑 LLM 应用的安全上下文服务。
基于 Model Context Protocol (MCP) 的后端实现,提供资源托管、工具注册与执行、以及提示模板渲染等核心能力,面向 LLM 客户端以标准化方式提供上下文信息与功能,支持多传输协议与会话管理底座。
基于 MCP 协议的后端服务器,向大型语言模型(LLM)客户端提供对 1claw Vault 的安全上下文信息、工具执行能力以及可渲染的提示资源,并通过 JSON-RPC 风格的请求/响应用以实现会话管理与多传输模式的扩展。
基于 Model Context Protocol (MCP) 架构的后端服务器实现集合,提供资源/工具暴露、MCP 客户端注册与执行、以及多工具/多提供者的上下文服务能力,支持通过标准的 MCP JSON-RPC 进行通信和管理。仓库内包含多个独立的 MCP 服务器实现(如 Linear、HubSpot、Jira、Salesforce、Zendesk、Asana 等)以及一个可复用模板,均以 STDIO 形式实现服务端。
基于 Model Context Protocol(MCP)的后端服务器,聚合 Vault、SOPS 等密钥/机密管理工具的工具接口,向大语言模型(LLM)客户端提供以 JSON-RPC 形式调用的密钥读取、写入等操作的统一入口,并支持通过标准化传输(如 STDIO)进行交互。
基于 Model Context Protocol (MCP) 的本地秘密管理与上下文服务服务器,提供秘密资源的托管、工具注册与执行,以及可渲染的 Prompt 模板,供本地的 AI 编码助手安全地获取上下文与功能。所有敏感密钥仅存于本地,AI 客户端通过 JSON-RPC 与服务器交互读取资源、调用工具并渲染 Prompts。
为AI模型提供安全上下文(如CVE详情、检测指南)和安全工具,基于Model Context Protocol实现。