标签搜索结果
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt/上下文相关支持,专为让大语言模型(LLM)以标准化方式访问文件资源、执行外部工具(如 S3/SFTP 操作)而设计。服务器通过 JSON-RPC 与客户端通信,支持在标准输入/输出(STDIO)传输上运行,便于与 AI 客户端(如 Claude 等)进行无缝对接。
基于 Model Context Protocol 的后端服务,提供可运行的 MCP 服务,包含 SSH 连接管理、命令执行、SFTP、服务器配置管理、凭证存储与审计日志等工具,并通过 JSON-RPC 与 LLM 客户端交互,支持多连接、安全锁定与自动重连等特性,为 LLM 应用提供安全、可扩展的上下文服务框架。
基于模型上下文协议(MCP)的后端实现,提供对远程服务器的 SSH 命令执行、SFTP 文件操作与会话管理等能力,供大型语言模型客户端通过 JSON-RPC 调用获取上下文、执行工具并管理会话。