标签搜索结果
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt/上下文相关支持,专为让大语言模型(LLM)以标准化方式访问文件资源、执行外部工具(如 S3/SFTP 操作)而设计。服务器通过 JSON-RPC 与客户端通信,支持在标准输入/输出(STDIO)传输上运行,便于与 AI 客户端(如 Claude 等)进行无缝对接。
基于 Model Context Protocol (MCP) 的 Manim 渲染后端服务器,提供资源托管、工具执行和 Prompts/模板的标准化接口,供 LLM 客户端通过 JSON-RPC 与后端进行资源读取、工具调用以及渲染作业管理等交互。