标签搜索结果
基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、远程工具注册与执行,以及可自定义的 Prompt 模板渲染,支持多种传输协议(如 WebSocket、HTTP/SSE、stdio)并实现会话管理、能力声明和认证等服务端功能,面向与 LLM 客户端的标准化上下文与能力对接场景。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供标准化的工具集与内存检索能力,允许本地或远程的 LLM 客户端通过 MCP 访问会话记忆、搜索结果、以及外部源捕获工具等功能,并支持 STDIO 与 SSE 等传输方式。
Walrus Daemon 的 MCP 服务器实现:通过 MCP 桥接连接一个或多个 MCP 服务器,注册工具、转发工具调用并将 MCP 能力整合到 Walrus 的运行时中,提供对外部工具的统一访问,支持与 LLM 客户端以标准化方式进行工具调用与资源访问。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、提示模板渲染,并通过 MCP 外部端点集成远程工具,支持 AG-UI 协议与 JSON-RPC 风格通信,适配多传输通道(如 WebSocket、轮询等)以为 LLM 应用提供安全、可扩展的上下文服务框架。
一个将 YouTube 视频转录为文本,并通过 MCP 协议提供给 LLM 客户端的后端服务。
一个基于 MCP 协议的服务器,提供抓取网页内容和获取 YouTube 视频字幕的工具。
演示如何通过MCP协议在AutoGen框架中集成本地和远程工具,包含一个本地数学工具服务器示例。
基于MCP协议构建,实现LangGraph Agents与远程工具互联互通,支持多服务器和Agent间协作,构建可扩展的LLM应用。