基于 Model Context Protocol (MCP) 的后端服务器实现,使用 FastMCP 通过标准的 JSON-RPC 方式向 LLM 客户端提供资源、工具以及提示模板等上下文能力,并实现会话管理、能力声明及多传输协议的扩展接口。该仓库同时提供注册与暴露 MCP Tool 名称与描述的功能,支持与客户端的对等互操作。
基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册/执行、资源接口、日志通知和 SSE 传输等能力,供大语言模型客户端以标准化上下文服务进行上下文获取、工具执行和提示模板渲染等任务。
基于 MCP 协议的后端服务,暴露 Clippy 的资源、工具和提示给 AI 客户端,通过 JSON-RPC 进行通信,支持文本与文件等上下文共享。
基于 FastAPI 框架的 Agent2Agent (A2A) 协议服务器模板,用于快速构建可与 LLM 客户端交互的智能体服务后端。
基于Model Context Protocol,此仓库提供了一个集成Google Gemini Pro模型的MCP服务器,允许LLM客户端调用Gemini Pro的文本生成能力。