为大模型应用提供上下文管理和工具服务,基于Spring Boot构建,支持工具自动化注册与执行。
在Google Apps Script环境中实现模型上下文协议(MCP)服务器,提供基础上下文服务功能。
使用Python和MCP SDK快速构建模型上下文协议(MCP)服务器的模板,为LLM提供数据和工具访问能力。
基于TypeScript的Model Context Protocol (MCP) 服务器基础框架,提供核心工具、资源示例及生产级开发工具。
该项目实现了一个基于MCP协议的Python REPL服务器,允许LLM客户端通过工具执行Python代码,并支持会话保持和包安装。
FastSD CPU MCP服务器是一个基于FastAPI构建的MCP后端,为LLM客户端提供快速CPU上的Stable Diffusion图像生成服务。
基于MCP协议的PostgreSQL数据库服务器,提供SQL查询、执行、事务和Schema信息查询等工具,用于LLM应用访问PostgreSQL数据库。
基于AWS Lambda的MCP服务器实现,通过Server-Sent Events (SSE) 提供实时的上下文服务,支持工具、资源和Prompt管理。
封装Google Gemini API的MCP服务器,通过标准化的MCP工具接口,为LLM客户端提供Gemini模型的各项能力。
MCP Java SDK 针对Java 8和Spring Boot 2.x环境优化,提供基于Spring WebMVC的MCP服务器实现,简化LLM应用后端开发。
该项目是一个基于Model Context Protocol (MCP) 的服务器集合,提供多种实用工具,如简单的计算、Google地图服务以及CSV/XLSX文件处理等,旨在为LLM应用提供丰富的外部能力。
基于Model Context Protocol的服务器模板,使用TypeScript开发,提供工具注册、调用和测试功能,帮助开发者快速构建MCP后端应用。
基于 Model Context Protocol 协议,为 LLM 提供 TiDB Serverless 数据库访问能力的后端服务。
FastMCP是一个TypeScript框架,用于快速构建MCP服务器,支持工具、资源和Prompt定义,并提供多种传输协议和实用工具。
此项目是一个MCP服务器,为LLM客户端提供访问Anthropic AI模型的能力,支持模型列表查询和消息发送,通过标准化的MCP协议简化Anthropic API的集成。
该项目是一个基础的MCP服务器示例,使用TypeScript SDK实现,演示了如何通过stdio传输协议提供资源列表和读取功能,适用于学习和理解MCP服务器的基本构建。
ATLAS MCP Server为大型语言模型提供层级任务管理能力,支持资源、工具和Prompt模板,并通过JSON-RPC协议与客户端通信。
该仓库实现了一个定制化的MCP服务器,扩展了PostgreSQL MCP服务器以支持多数据库查询和Python脚本执行工具,旨在为LLM应用提供更灵活的数据访问和外部功能调用能力。
mcp-server仓库实现了一个简单的MCP服务器,通过工具提供推特发文和读取Google Sheets数据的功能,并通过资源暴露Google Sheets数据,演示了MCP协议在数据访问和功能扩展方面的应用。
Livecode MCP Server是一个基于MCP协议的io.livecode.ch代码运行工具服务器,允许LLM客户端通过工具调用在io.livecode.ch上运行代码。
该项目是一个 MCP 服务器的实现,集成了 DigitalOcean API,允许 LLM 通过 MCP 协议管理 DigitalOcean 云资源,例如云服务器的创建和管理。
MSSQL MCP Server 是一个基于 Model Context Protocol 的服务器实现,它提供工具以连接和查询 Microsoft SQL Server 数据库,为 LLM 应用提供数据访问能力。