标签搜索结果
基于 FastAPI 的 MCP 服务器实现,提供按标准化方式向 LLM 客户端暴露资源、工具和提示模板的能力,并通过 JSON-RPC 风格的 API 与客户端通信,支持多种传输方式(HTTP/SSE),实现会话管理与能力声明等 MCP 服务器核心功能。
iq 是一个命令行工具,能够将您定义的AI工作流作为可调用的MCP工具,以服务器模式对外提供上下文信息和功能。
一个实时预测市场游戏平台,内置支持通过Model Context Protocol (MCP) 标准向LLM代理提供上下文信息和可调用工具,实现AI代理的自动化交易和社交互动。
一个支持多MCP服务器聚合、个人敏感信息(PII)自动脱敏的HTTP/SSE/Stdio代理服务器,为LLM客户端提供统一接口。
连接LLM客户端与Codex CLI的Agent客户端协议(ACP)服务器,提供上下文、工具调用和会话管理。
一个功能强大的LLM代理服务器,统一访问多种语言模型API,并无缝集成和暴露来自Model Context Protocol (MCP) 服务器的工具与上下文能力。
一个基于GPT-4和MCP的智能助手,专门分析、优化和管理Kubernetes YAML配置,提供部署和操作工具。
OpenHands 是一个基于 AI 的软件开发代理平台,它为 LLM 客户端提供标准化的 Model Context Protocol (MCP) 接口,以管理代码、执行命令和调用外部工具,从而自动化软件开发任务。
Plugged.in是一个将AI对话转化为持久化组织知识的智能内容管理系统,提供统一的MCP代理服务接口,用于连接、管理并向LLM客户端提供丰富的AI工具、上下文资源和Prompt模板。
连接大型语言模型与ROS机器人,实现自然语言控制、实时状态监控及丰富的机器人交互能力。
HAgent MCP服务器是硬件设计领域的AI代理引擎,通过MCP标准,将LLM集成到芯片设计流程,提供资源、工具和Prompt定制服务。
将本地MCP客户端安全连接至远程MCP服务器,提供OAuth认证及透明的上下文和工具代理服务。
下一代AI网关,兼容OpenAI协议,提供智能路由、监控、多租户管理,并支持MCP协议,托管资源和工具以增强LLM应用能力。
基于FastMCP框架构建的Model Context Protocol (MCP) 服务器实现,用于将代理能力暴露给大型语言模型客户端。
Revvy项目中的天气信息工具MCP服务器,为LLM客户端提供日本天气警报和全球天气预报工具。
此MCP服务器为LLM提供本地文件系统和Web资源访问工具,包括文件读写编辑搜索、目录列表和网页抓取等功能。
Agents-EXE是一个用于构建和运行LLM代理的工具,通过实验性的MCP服务器将代理作为工具提供给LLM客户端。
Kakashi MCP Servers为LLM应用提供天气查询和网页文件下载工具,基于Model Context Protocol标准实现。
该项目是一个MCP服务器,它连接到Discord,并为LLM客户端提供操作Discord频道和消息的工具,例如发送消息、读取消息和添加反应。