标签搜索结果
基于 Model Context Protocol (MCP) 的本地后端服务器,提供对资源的读取与转换、工具执行以及提示模板渲染能力,并通过 JSON-RPC/SSE/stdio 等传输方式与 LLM 客户端进行上下文服务交互。
基于Cloudflare Browser Rendering的MCP服务器,为LLM提供网页内容抓取、处理和结构化信息提取工具。