返回首页

"服务器端" 标签

7 个结果

标签搜索结果

AI与计算

NotebookLM MCP CLI 与服务器端实现

基于 Model Context Protocol (MCP) 的 NotebookLM 后端服务器实现,提供资源、工具和提示的标准化管理与渲染,支持通过 JSON-RPC 与 LLM 客户端通信,具备会话管理、能力声明以及对多种传输协议的支持,适用于将 NotebookLM 的上下文和功能暴露给强大的 AI 助手。

AI与计算

VideoRLM KUAVi MCP 服务器

基于 VideoRLM 与 KUAVi 项目的 MCP 协议实现的后端服务器,提供资源管理、工具注册与执行、以及 Prompt 模板等功能,并通过标准化的 JSON-RPC/stdio 传输与 LLM 客户端进行通信,支持会话管理与多工具集成以支撑复杂的视频分析与推理任务。

开发者工具

Iconx MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,用于向大语言模型(LLM)客户端提供图标资源、工具与可自定义的 Prompt 模板等上下文服务。该仓库中的 iconx 包提供一个可运行的 MCP 服务器实现,通过标准输入输出(stdio)传输,与客户端进行 JSON-RPC 通信,注册并执行工具(如搜索图标、生成图标组件等),并支持通过配置管理图标资源与输出。

AI与计算

Whenny MCP 服务器

基于 Model Context Protocol 的服务器端实现,向客户端暴露 Whenny 的日期与时间相关工具,支持通过 JSON-RPC 请求执行工具、注册与查询工具、以及基于时区的传输/时区上下文等功能,适用于将日期服务接入到 AI 客户端的上下文环境中。

网页与API

PraisonAI MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 STDIO、SSE、WebSocket)以为 LLM 客户端提供可扩展的上下文服务框架。

网页与API

Symfony MCP 服务器

基于 Symfony 框架,用于快速构建 Model Context Protocol (MCP) 服务器的强大工具包。

AI与计算

Open Multi-Agent Canvas MCP Math Server

一个基于FastMCP框架实现的简单数学工具服务器,用于演示MCP服务器功能,可与Open Multi-Agent Canvas前端集成使用。