基于 Model Context Protocol (MCP) 的 NotebookLM 后端服务器实现,提供资源、工具和提示的标准化管理与渲染,支持通过 JSON-RPC 与 LLM 客户端通信,具备会话管理、能力声明以及对多种传输协议的支持,适用于将 NotebookLM 的上下文和功能暴露给强大的 AI 助手。
基于 Model Context Protocol 的 MCP 服务器实现,用于向大语言模型(LLM)客户端提供图标资源、工具与可自定义的 Prompt 模板等上下文服务。该仓库中的 iconx 包提供一个可运行的 MCP 服务器实现,通过标准输入输出(stdio)传输,与客户端进行 JSON-RPC 通信,注册并执行工具(如搜索图标、生成图标组件等),并支持通过配置管理图标资源与输出。