返回首页

"服务端" 标签

23 个结果

标签搜索结果

AI与计算

Meridian MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,使用 FastMCP 通过标准的 JSON-RPC 方式向 LLM 客户端提供资源、工具以及提示模板等上下文能力,并实现会话管理、能力声明及多传输协议的扩展接口。该仓库同时提供注册与暴露 MCP Tool 名称与描述的功能,支持与客户端的对等互操作。

AI与计算

Pyrite MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供标准化的资源管理、工具执行与提示渲染能力,通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、分层权限以及多传输协议的上下文服务框架。

AI与计算

MCP Boilerplate 服务器(Model Context Protocol 后端)

基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册/执行、资源接口、日志通知和 SSE 传输等能力,供大语言模型客户端以标准化上下文服务进行上下文获取、工具执行和提示模板渲染等任务。

开发者工具

OSGi.fx MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器实现,提供通过 JSON-RPC 进行的资源与数据访问、工具注册与执行,以及提示模板渲染等能力,支持通知广播(如 SSE)与多传输通道,面向大语言模型(LLM)客户端提供标准化的上下文服务。

AI与计算

Clippy MCP 服务器

基于 MCP 协议的后端服务,暴露 Clippy 的资源、工具和提示给 AI 客户端,通过 JSON-RPC 进行通信,支持文本与文件等上下文共享。

AI与计算

PocketPaw MCP 服务端实现

基于模型上下文协议(MCP)的后端服务,提供资源托管、工具注册与执行、Prompt 模板渲染,并通过 JSON-RPC 与客户端进行标准化交互;支持多传输协议、会话管理与能力声明,适配多种 LLM 客户端场景。

网页与API

Feishu Cursor MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供工具注册与执行、资源管理及与飞书与 Cursor CLI 集成的上下文服务,通过 JSON-RPC 与客户端通信,支持通过 STDIO 传输的 MCP 服务。

开发者工具

FrontMCP 服务器端框架与插件集合

基于 Model Context Protocol (MCP) 的 TypeScript 服务器端框架,提供资源(Resource)、工具(Tool)、提示(Prompt)等上下文服务,并通过插件体系扩展能力,支持多传输协议(如流式HTTP、SSE、WebSocket)与会话管理,面向构建可扩展的 MCP 后端应用。

AI与计算

LlamaCloud MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,作为 LLM 客户端的后端上下文服务,提供资源管理、工具注册与执行、以及提示模板渲染等能力;通过 JSON-RPC 与客户端通信,支持多传输(如 STDIO、HTTP),并包含会话管理、能力声明与日志控制等核心特性。

网页与API

Sahai MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,实现资源、工具与提示模板的标准化上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理与 SSE 实时推送。

AI与计算

Azure OpenAI MCP示例服务器

演示如何使用MCP协议与Azure OpenAI集成,提供工具注册和调用的基本MCP服务器功能。

开发者工具

AutoMCP

AutoMCP是一个工具,可以将多种Agent框架(如CrewAI、Langchain等)的工具、Agent或编排器转换为符合Model Context Protocol (MCP) 标准的服务器。

开发者工具

FastAPI A2A Agent 服务模板

基于 FastAPI 框架的 Agent2Agent (A2A) 协议服务器模板,用于快速构建可与 LLM 客户端交互的智能体服务后端。

AI与计算

Calculate MCP服务器

一个简单的MCP服务器,提供基础计算器功能,使LLM能够执行加减乘除等运算。

网页与API

MCP Oats: OpenAPI 工具服务器

基于MCP协议,将OpenAPI规范转换为可调用的工具,为LLM应用提供API访问能力。

开发者工具

mcp4k框架

mcp4k是一个Kotlin实现的MCP框架,用于快速构建类型安全的MCP客户端和服务器,支持资源、工具、Prompt等核心功能。

AI与计算

代码执行 MCP 服务器

一个 MCP 服务器,允许大型语言模型客户端执行代码片段并获取结果,支持多种编程语言。

AI与计算

Montano MCP 服务器

基于 Model Context Protocol 的服务器实现,提供工具注册和执行能力,并通过标准协议与 LLM 客户端通信。

网页与API

MCP Demo Weather Server

一个演示性质的MCP服务器,提供天气查询工具和Prompt模板,展示MCP服务器的基本功能。

开发者工具

mcp server template

该项目是一个MCP服务器模板,旨在帮助开发者快速搭建自定义MCP服务器,以便为Cursor或Claude Desktop等LLM客户端提供上下文信息和工具能力。

开发者工具

go mcp

go-mcp 是 Model Context Protocol (MCP) 的 Go 语言实现库,提供构建 MCP 服务器和客户端的基础框架,支持资源、工具和 Prompt 管理,以及 SSE 和 Stdio 传输。

开发者工具

go mcp server service

这是一个使用Go语言编写的MCP服务器示例,专注于笔记管理,实现了资源、Prompt和工具的基本功能,可作为开发自定义MCP服务器的脚手架。

AI与计算

Gemini Pro

基于Model Context Protocol,此仓库提供了一个集成Google Gemini Pro模型的MCP服务器,允许LLM客户端调用Gemini Pro的文本生成能力。