返回首页

"资源访问" 标签

53 个结果

标签搜索结果

开发者工具

Clarvis MCP Server

基于 Model Context Protocol(MCP)的嵌入式后端实现。提供资源访问、工具执行与提示/上下文渲染能力,使用 JSON-RPC 通过 Unix 套接字与 LLM 客户端通信,包含会话管理、能力声明与多种传输适配的实现框架。该实现将资源、工具、以及与 LLM 交互所需的上下文信息暴露给客户端,方便构建对话型应用的上下文服务后端。

开发者工具

xcode-mcp

基于 Model Context Protocol 的 MCP 服务器实现,用于通过 MCP 提供 Xcode 自动化相关资源、工具与提示模板服务。

AI与计算

VideoRLM KUAVi MCP 服务器

基于 VideoRLM 与 KUAVi 项目的 MCP 协议实现的后端服务器,提供资源管理、工具注册与执行、以及 Prompt 模板等功能,并通过标准化的 JSON-RPC/stdio 传输与 LLM 客户端进行通信,支持会话管理与多工具集成以支撑复杂的视频分析与推理任务。

网页与API

Guilders MCP 服务器

基于 Guilders API 的 MCP 服务器实现,通过 JSON-RPC 提供资源访问、工具执行以及提示模板渲染等能力,供大型语言模型(LLM)客户端安全地获取上下文数据与外部功能。

AI与计算

Forge MCP 服务器(Forge Orchestrator MCP 服务)

基于 Model Context Protocol(MCP)的服务器实现,作为 Forge Orchestrator 的后端,向大语言模型客户提供资源访问、工具注册/执行与 Prompt 渲染等能力;通过 JSON-RPC 在标准输入输出(stdio)上与客户端通信,包含会话管理、能力声明,并支持多种传输方式的扩展。该仓库提供完整的 MCP 服务端实现、协议定义及与工具适配器的集成,具备可运行的服务器代码和集成测试。

AI与计算

Skulto MCP 服务器

基于模型上下文协议(Model Context Protocol,MCP)的后端服务器实现,向 LLM 客户端提供技能资源、工具注册与执行以及提示模板的定义与渲染,支持 JSON-RPC 调用、会话管理与多传输协议接入。

AI与计算

claude-skills-vault

基于 Model Context Protocol (MCP) 的服务器集合,提供资源访问、工具注册与执行,以及对话/上下文能力的标准化后端,供 LLM 客户端通过 JSON-RPC 进行资源读取、工具调用与提示渲染等操作。

AI与计算

Converse MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,通过 JSON-RPC 与客户端通信,并支持多种传输方式(如 Stdio、SSE、WebSocket)以构建面向 LLM 的上下文服务框架。

AI与计算

StackRox MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供统一的上下文信息与功能入口。服务器负责托管与管理资源、注册与执行工具、定义与渲染提示模板,并通过 JSON-RPC 风格的协议与客户端交互,支持多种传输方式(如 HTTP/1.1 桥接、WebSocket、STDIO),实现安全、可扩展的上下文服务框架。目前处于开发者预览阶段,功能与接口可能在后续版本中变动。

商业系统

Autotask MCP Server

基于 Model Context Protocol (MCP) 的 Autotask MCP 服务器,向大语言模型客户端以标准化方式提供 Autotask 数据资源、工具执行能力和提示模板,支持多种传输协议(stdio、HTTP Streamable),并实现会话管理与资源/工具的统一访问。

AI与计算

SkillKit Memory MCP 服务器

基于 Model Context Protocol 的 MCP 服务端实现,提供内存资源与工具访问能力供大模型客户端读取和写入记忆、执行内存相关操作以及与技能系统对接。

网页与API

tescmd MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化 JSON-RPC 形式暴露资源、工具和提示,提供会话管理、能力声明、工具注册与执行,以及对多种传输协议的支持,构建可扩展的上下文服务框架。

AI与计算

MonicaHQ MCP Server

基于 Model Context Protocol 的 MCP 服务器,使用 Spring Boot 实现,提供 MonicaHQ CRM 数据的资源访问、工具调用及内容渲染,支持 STDIO 与 WebSocket/HTTP 等传输模式,面向大语言模型客户端(如 Claude Desktop)提供标准化的上下文服务。该服务器实现了资源管理、工具注册与执行,以及提示模板渲染等核心能力,以 JSON-RPC 2.0 进行通信。

商业系统

Fantaco MCP 服务器实现(客户与财务)

基于模型上下文协议(MCP)的后端服务器实现,提供面向客户与财务的工具服务,通过 FastMCP HTTP 传输向 LLM 客户端暴露可调用的工具,支持资源访问与任务执行,便于在对话式应用中以标准化方式获取上下文信息和外部功能。

开发者工具

jooby-mcp

基于Jooby框架和官方Java MCP SDK,快速构建和托管MCP服务器,提供上下文信息、工具和Prompt服务。

AI与计算

MCP代理服务器

将多个MCP服务器聚合为一个统一接口,提供工具、资源和提示能力给LLM客户端。

AI与计算

MCP笔记助手服务器

一个基于Model Context Protocol (MCP) 的服务器,为AI助手提供笔记记录、查询最新笔记和生成笔记摘要的功能。

AI与计算

Qilin MCP服务器框架

一个用Go语言构建的Model Context Protocol (MCP) 服务器框架,用于向LLM提供资源和工具服务。

AI与计算

MCP服务器基础框架

提供一个基于Python MCP SDK的标准容器化基础镜像和工具,用于快速构建和部署Model Context Protocol (MCP) 服务器。

AI与计算

FastAPI FastMCP 集成服务器

集成FastAPI和FastMCP,快速构建可扩展的LLM上下文服务器,支持工具、资源、Prompt自动发现。

AI与计算

mcp-proxy-hub

聚合多个MCP服务器的功能,通过统一接口为LLM客户端提供服务。

AI与计算

MCP 网关

一个 Python 应用,聚合多个后端 MCP 服务器的能力,通过统一的 SSE 端点提供给 LLM 客户端。

网页与API

Weather Service MCP Server

一个基于Python实现的MCP服务器,提供天气信息查询功能,包括实时天气和天气预报,通过资源和工具两种方式为LLM应用提供上下文数据。

开发者工具

MCP Host

MCP Host 是一个 Node.js 应用,用于连接、管理和聚合多个 MCP 服务器,提供统一 HTTP API 访问工具和资源。

AI与计算

AgentStudio MCP服务器

AgentStudio MCP服务器为AgentStudio平台上的智能体提供资源访问和工具调用能力,符合模型上下文协议标准。

AI与计算

Talkverse.ai AI 聊天机器人平台

基于Next.js构建的AI聊天机器人平台,集成了Model Context Protocol (MCP) 功能,提供资源访问和工具执行能力。

数据库与文件

MongoDB Atlas MCP Server

一个基于 Model Context Protocol 的服务器,用于连接和管理 MongoDB Atlas 服务,提供集群和项目信息的访问能力。

开发者工具

GitLab GraphQL MCP 服务器

一个基于MCP框架构建的GitLab集成服务器,通过GraphQL API为LLM提供安全可控的GitLab资源访问能力。

开发者工具

Rust MCP SDK

用于构建高性能、异步MCP服务器和客户端的Rust SDK,提供资源管理、工具执行和Prompt模板处理能力。

AI与计算

Koding.js MCP服务器

Koding.js MCP服务器是一个基于Node.js实现的Model Context Protocol (MCP) 服务器,它提供资源管理和工具执行能力,通过JSON-RPC协议与LLM客户端进行通信。

AI与计算

ModelContextProtocol.jl

ModelContextProtocol.jl 是一个用 Julia 语言实现的 MCP 服务器,旨在为大型语言模型提供标准化的上下文信息和功能访问能力。

AI与计算

LaTeX to MathML MCP 服务器

该项目是一个基于 Model Context Protocol (MCP) 的服务器,用于将 LaTeX 数学表达式转换为 MathML 格式,支持工具调用和资源访问两种方式。

网页与API

Deepin MCP 服务器示例

Deepin MCP 仓库包含多个示例 MCP 服务器的 Python 实现,用于演示如何构建提供工具和资源访问能力的 MCP 后端。

开发者工具

MCP Host CLI

MCP Host CLI 是一个用于连接、管理多个MCP服务器的工具,提供统一的HTTP API访问后端服务能力。

开发者工具

y-cli MCP Daemon

y-cli MCP Daemon 是一个用于管理和连接多个 MCP 服务器的后台服务,允许 y-cli 客户端通过统一接口安全便捷地调用 MCP 工具和访问资源。

开发者工具

GitHub MCP 服务器

一个基于 MCP 协议的服务器,允许 LLM 应用安全访问和操作 GitHub 资源,扩展 LLM 在软件开发领域的应用能力。

AI与计算

MCP Fun Examples

演示了如何使用 FastMCP 框架构建和运行 MCP 服务器,包含 BMI 计算工具和 MySQL 数据库资源访问。

开发者工具

Simple MCP Mood Server示例

一个简单的MCP服务器实现,提供查询心情的工具和访问文本资源的能力,演示MCP协议的基本用法。

AI与计算

MCP示例服务器实现

基于FastMCP框架构建的MCP服务器示例,演示了如何通过资源、工具和Prompt模板为LLM应用提供上下文服务。

AI与计算

MCP Experiment Server

这是一个基于.NET开发的MCP服务器实验性实现,旨在为LLM客户端提供资源、工具和Prompt模板管理等上下文服务。

AI与计算

PHP MCP服务器示例

基于PHP实现的MCP服务器,提供Prompt模板、Tool工具和Resource资源的管理与访问功能,为LLM应用提供上下文服务。

开发者工具

MCP Dockmaster

MCP Dockmaster 是一个用于安装、管理和监控 MCP 服务器的工具,为 LLM 应用提供上下文服务。

网页与API

mcp gateway

mcp-gateway 是一个 MCP 服务器网关,作为反向代理,统一管理和接入多个 MCP 服务器,简化 LLM 客户端与后端上下文服务的交互。

开发者工具

LibreChatMCPServers

LibreChatMCPServers仓库提供了一系列基于Model Context Protocol (MCP) 的服务器示例,旨在通过Supergateway桥接,为LibreChat扩展工具和资源集成能力。

AI与计算

mcp js server

mcp-js-server 是一个基于 JavaScript 的 MCP 服务器 SDK,用于构建能够向 LLM 应用提供资源、工具和 Prompt 模板的后端服务。

网页与API

weather

weather MCP server是一个提供天气信息查询功能的后端服务,通过资源和工具向LLM客户端提供实时天气和天气预报数据。

生产力应用

fp mcp

fp-mcp 是一个基于 TypeScript 的 MCP 服务器,它使用 Fireproof 数据库实现了一个简单的笔记系统,演示了如何通过资源、工具和 Prompt 模板向 LLM 客户端提供笔记功能。

开发者工具

mcp server client

该项目是一个Model Context Protocol (MCP) 服务器和客户端的示例实现,演示了如何使用TypeScript SDK构建基于MCP协议的资源访问服务。

AI与计算

model context protocol rs

一个Rust实现的MCP服务器,提供资源管理、工具调用和Prompt模板功能,支持STDIO和SSE传输协议,用于构建LLM应用的上下文服务后端。

数据库与文件

File Operations

File Operations MCP Server是一个基于Model Context Protocol (MCP) 的后端服务,提供增强的文件和目录操作功能,包括读写、复制、移动、删除、监控文件变化以及追踪操作历史等。

AI与计算

Pyodide Server

Pyodide Server是一个MCP服务器,允许LLM通过执行Python代码和访问挂载资源来扩展功能。

网页与API

Coinmarket Server

Coinmarket MCP服务器是一个应用后端,通过MCP协议向LLM客户端提供来自Coinmarket API的加密货币市场数据,包括最新的加密货币列表和报价信息,支持以资源和工具两种方式访问。

生产力应用

Notes Server

Notes Server 是一个 MCP 服务器,用于管理个人笔记,支持创建、读取、更新、删除笔记,并通过 Prompt 模板进行笔记总结和资源访问。