返回首页

"Claude 集成" 标签

23 个结果

标签搜索结果

AI与计算

Reflexive Thematic Analysis MCP 服务器

基于模型上下文协议(MCP)的后端服务器,向客户端提供资源管理、工具注册与执行、以及可定制的提示模板渲染,通过 JSON-RPC 与 Claude Desktop 等客户端进行交互,支持多种传输协议,面向定性分析工作流的上下文服务。

AI与计算

Lobster MCP 后端

基于 Model Context Protocol (MCP) 的服务器实现,作为后端后端上下文服务提供者,托管资源、注册与执行工具、定义与渲染 prompts,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理与多传输协议,面向 Claude Code 生态的可扩展上下文服务框架。

AI与计算

Minion Toolkit MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 Claude Code 客户端提供资源、工具与提示模板等上下文服务,支持资源管理、工具注册与执行、提示渲染,以及面向 LLM 的任务编排、成本估算、集成报告等功能,帮助实现可扩展、安全的上下文服务框架。

AI与计算

enjoy-mcp-服务器

基于模型上下文协议(MCP)的后端服务实现,提供对 Enjoy 游戏的工具管理与查询能力,通过 JSON-RPC 形式与 MCP 客户端(如 Claude)进行交互,核心功能聚焦工具注册与调用,支持通过标准化接口获取项目状态、排行榜、玩家信息、GitHub 活动等数据。该实现使用 Stdio 传输,适合嵌入到 Claude Code/桌面端等工作流中进行上下文服务接入。

AI与计算

AIquila MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 Claude 等 LLM 客户端以标准化方式提供 Nextcloud 的资源数据、可注册执行的 Tools,以及 Prompt 模板等上下文服务,并通过 JSON-RPC 及多种传输形式(stdio、HTTP)进行通信与会话管理。

商业系统

freee-mcp

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供资源数据访问、工具调用以及 Prompt 模板渲染等上下文服务,结合 Claude 生态实现对 freee API 的集成,支持 OAuth2 PKCE、多事业所场景以及本地传输方式(如 STDIO)等特性。

AI与计算

AgentGate MCP 服务端

基于模型上下文协议(MCP)的后端实现,提供资源、工具和提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端通信,支持流式传输与子进程传输,并能与 Claude Desktop 等 MCP 客户端无缝对接。

网页与API

CBrowser MCP 服务器

基于 Model Context Protocol 的服务器实现,用于向 LLM 客户端以标准化的 JSON-RPC 方式提供浏览器资源、工具执行能力与提示模板,并支持资源管理、工具注册、提示渲染以及会话/状态管理等多模态上下文服务。该实现把浏览器自动化能力暴露为 MCP 工具集,方便 Claude Desktop/Code 等 MCP 客户端接入和协同工作。

网页与API

Unified Hi-Fi Control MCP Server

基于 Model Context Protocol (MCP) 的后端实现,提供对 Unified Hi-Fi Control 桥接器的工具集访问能力,通过 JSON-RPC 与 Claude 等 LLM 客户端进行交互,支持以统一接口调用中控工具并获取响应。

网页与API

WebDriverIO MCP 服务器

基于模型上下文协议(MCP)的后端服务实现,提供浏览器与移动应用自动化工具集合,通过 JSON-RPC 与 Claude Desktop 进行上下文服务与功能调用。服务器实现了工具注册、执行与会话管理,并通过 Stdio 等传输方式与客户端通信,支持浏览器与 Appium 的自动化场景。

AI与计算

Semantic Scholar MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端,提供对 Semantic Scholar 的论文、作者等信息的资源、工具和提示模板的管理与渲染,通过 JSON-RPC 与客户端进行通信,支持多工具调用、批量检索与健康检查等核心功能。

AI与计算

enjoy MCP 服务器

基于 MCP(Model Context Protocol)的后端服务,提供通过 JSON-RPC 与 LLM 客户端进行交互的能力,允许对工具进行注册与执行、获取项目状态与排行榜等,并通过标准传输(如 STDIO)实现与 Claude/GPT 等客户端的无缝对接。

开发者工具

Coinbase MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 CoinBase Advanced Trading API 的资源管理、工具注册与执行,以及用于 Claude 等大语言模型的提示模板渲染与自助交易能力。服务器通过 JSON-RPC 与客户端通信,支持 HTTP(/mcp)、标准输入输出(stdio)等传输方式,并内置工具与提示注册、会话管理与安全日志处理。实现不仅包含完整的 MCP 服务端逻辑,还提供大量工具的注册、Prompts、以及用于自动交易技能的集成示例。

开发者工具

nvim-claude MCP 服务端

基于 MCP 协议的 Neovim LSP 诊断桥接服务端,提供对 Claude 等 MCP 客户端的诊断读取、诊断上下文、诊断汇总以及会话诊断等工具。

AI与计算

MonicaHQ MCP Server

基于 Model Context Protocol 的 MCP 服务器,使用 Spring Boot 实现,提供 MonicaHQ CRM 数据的资源访问、工具调用及内容渲染,支持 STDIO 与 WebSocket/HTTP 等传输模式,面向大语言模型客户端(如 Claude Desktop)提供标准化的上下文服务。该服务器实现了资源管理、工具注册与执行,以及提示模板渲染等核心能力,以 JSON-RPC 2.0 进行通信。

AI与计算

PocketRAG MCP集成服务器

基于 Model Context Protocol (MCP) 的本地化后端,提供资源管理、工具注册与执行,以及通过标准化的 MCP JSON-RPC 流程与 Claude Desktop 等 LLM 客户端通信的能力,用于在本地进行文档检索与上下文提供。该实现包含一个以Stdio为传输的 MCP 服务端,及一组用于知识库检索、统计与文档列举的工具。

AI与计算

Redstack Vault MCP 服务器

基于 Model Context Protocol 的后端服务器,向大语言模型客户端提供资源、工具和提示模板的标准化上下文服务,通过 JSON-RPC 进行请求/响应,且支持 SSE/WebSocket 等传输形式,便于在受控环境中实现高效的上下文管理与外部功能调用。

桌面与硬件

Memex Twos MCP Server

基于 Model Context Protocol(MCP)的本地后端服务器,用于将 Twos 应用导出数据以资源、工具和 Prompts 的标准化方式暴露给大型语言模型客户端(如 Claude)。服务器在本地运行,提供数据查询、工具执行、上下文提示渲染能力,支持本地隐私和可扩展的上下文服务。

AI与计算

MCP 应用后端模板

基于 Rails 和 MCP 协议,为 AI 应用提供带认证、支付、工具和资源能力的上下文服务后端模板。

数据库与文件

Phrases MCP Server

一个简单的MCP服务器,用于管理励志短语,允许LLM客户端访问和操作短语数据。

网页与API

pokemon mcp

pokemon-mcp 是一个使用 Go 语言实现的 MCP 服务器,它演示了如何通过 MCP 协议将外部 Pokemon API 集成到 Claude 等 LLM 客户端,提供宝可梦信息查询和比较工具。

网页与API

Web Research Server

Web Research Server是一个MCP服务器,通过集成Google搜索和网页内容提取工具,为 Claude 等 LLM 应用提供实时的网络研究能力,支持会话跟踪和资源管理。

网页与API

Web Research

一个用于网络研究的MCP服务器,集成谷歌搜索和网页内容提取功能,为Claude等LLM提供实时信息访问能力。