基于 Model Context Protocol 的 MCP 服务器实现,利用 Google Gemini API 提供图像生成与编辑能力,并对外暴露资源、工具调用与提示模板等能力,供大语言模型客户端以统一的上下文服务进行交互。
基于 Model Context Protocol (MCP) 的 JSON-RPC 2.0 服务器实现,提供资源管理、工具调用与上下文提示渲染,作为 Claude Code 等客户端的后端上下文服务,采用标准输入输出传输进行通信。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供 Gemini API 的对话、图像与视频生成等工具接口,支持多轮会话管理、提示模板渲染与 JSON-RPC 通信,通过标准输入输出传输(Stdio)实现与 MCP 客户端的对接。
基于FastMCP框架实现的MCP服务器,通过Redis队列异步处理Gemini API的文本生成请求,为AI Waifu应用提供上下文服务。
基于 Gemini API 的 MCP 服务器,提供聊天、搜索、RAG 和思考等多种工具,并通过路由器统一管理。
智能上下文MCP服务器,根据用户情境动态选择和编排工具,集成Gemini API,支持复杂工作流,为LLM提供上下文服务。
封装Google Gemini API的MCP服务器,通过标准化的MCP工具接口,为LLM客户端提供Gemini模型的各项能力。
Gemini Search MCP Server是一个基于Model Context Protocol的服务器,它利用Gemini API和Google搜索为AI助手提供最新的信息检索和文件分析工具,支持文本搜索以及图片、PDF等多模态文件分析。