基于Cloudflare Vectorize和AI,为LLM提供Cloudflare文档的语义搜索工具。
一个 MCP 服务器,允许 AI 助手通过书名在 Open Library 中搜索图书信息。
基于LlamaCloud的本地MCP服务器,通过RAG工具为LLM客户端(如Claude Desktop)提供最新的私有信息访问能力。
ResearchMCP 是一个 MCP 服务器,通过集成 Perplexity AI 提供互联网研究能力,为 LLM 客户端提供“research”工具以访问最新的在线信息。
此仓库提供了一个基于 Model Context Protocol (MCP) 的服务器实现,通过集成 Perplexity API,为 Claude 等大型语言模型客户端提供实时的网络搜索能力,作为一个可调用的工具。
使用Perplexity API为LLM客户端提供互联网研究能力的MCP服务器,支持 Claude 等客户端进行联网搜索并引用来源。
此项目是一个MCP服务器工具,通过Perplexity AI API为Claude等LLM客户端提供联网搜索和信息检索能力。
Tavily Search MCP Server 是一个为LLM应用设计的后端服务,它通过集成 Tavily Search API 提供强大的网页搜索功能,使LLM能够访问和利用最新的网络信息。
Perplexity AI MCP Server是一个基于Model Context Protocol的服务器,它将Perplexity AI的强大搜索和聊天功能集成为可供LLM客户端调用的工具,方便用户在MCP生态系统中使用Perplexity AI的服务。