返回首页

"MCP 集成" 标签

8 个结果

标签搜索结果

网页与API

xProof MCP 服务器端

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具与提示模板等上下文服务,通过 JSON-RPC 2.0 的 MCP 接口与 LLM 客户端对接,支持在 MultiversX 区块链上进行证据证明与工具调用等能力。

AI与计算

CodeIntel MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,向大型语言模型客户端提供资源访问、工具调用和可渲染的提示/上下文模板,支持多种传输方式(stdio、Streamable HTTP),通过 JSON-RPC 与客户端通信并实现会话管理和能力声明。

网页与API

DuckDuckGo MCP Server

基于 Model Context Protocol 的后端服务器,提供 DuckDuckGo 网络检索、新闻检索与 Jina Reader 内容获取等工具,并通过 MCP 协议向大型语言模型客户端提供规范化的资源与工具访问。

网页与API

GhostFetch MCP Server

基于 MCP 的 GhostFetch 服务器实现,为 MCP 客户端提供对 GhostFetch 功能的统一访问,支持通过 JSON-RPC 的 stdio 传输与客户端交互(初始化、工具列表、工具调用、通知等)

AI与计算

pyscn-mcp MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,为 MCP 客户端提供 pyscn 的资源访问、工具注册/执行和提示模板渲染能力,通过 JSON-RPC 与客户端通信,支持多种传输通道并实现会话管理与能力声明。该实现以 pyscn 的命令行分析能力为核心,暴露给 AI 辅助工具集成使用。

AI与计算

Skyll MCP 服务器

基于 Model Context Protocol 的 Skyll MCP 服务器,提供技能搜索与获取工具,供 LLM 客户端通过 MCP 协议进行上下文检索与功能调用,支持多传输协议、会话管理与缓存优化。

AI与计算

y-gui MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,负责注册、管理与渲染 MCP 服务器、资源与工具,并通过流式交互与 MCP 客户端协同工作,提供对上下文、工具和提示模板的标准化服务。

网页与API

OneKGPd MCP 服务器(1000 Genomes 数据集后端)

基于 Model Context Protocol (MCP) 的后端服务,向大语言模型客户端提供对 1000 Genomes Project 数据集的资源、工具和提示模板等上下文信息的标准化访问,并通过 JSON-RPC 风格的 MCP 客户端进行交互。