返回首页

"服务器端实现" 标签

9 个结果

标签搜索结果

网页与API

graphql-mcp-server-tools

基于 GraphQL 架构,能够从 GraphQL 模式自动提取 Query/Mutation,生成一组 MCP 工具并通过 JSON-RPC 暴露,供大模型客户端查询、操作数据以及执行外部功能。

AI与计算

MCP 服务器合集(Model Context Protocol 实现)

基于 Model Context Protocol 的多语言 MCP 服务器实现集合,提供资源与工具的管理、JSON-RPC 风格请求响应、SSE 推送、健康与监控等核心能力,支持 Go、Python 等语言实现,适合与大语言模型客户端进行模态化上下文服务交互。

AI与计算

DivineOS MCP Server

DivineOS MCP Server 基于 MCP 协议实现的后端服务,利用 MCP SDK 将资源、工具和提示等能力以 JSON-RPC 形式暴露给 MCP 客户端,支持标准输入输出和 HTTP 传输,提供完整的伺服器端实现与工具集合。

AI与计算

AgentMemory MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现资源、工具和提示模板的注册、执行与渲染,并通过 JSON-RPC 风格的 MCP 端点与客户端交互,支持嵌入式与独立两种运行模式。该仓库提供完整的 MCP 服务端实现、工具/资源/提示的暴露以及相应的 REST/MCP 接口,便于与 Claude、Cursor、Windsurf 等 MCP 客户端对接。

开发者工具

Hatch MCP 服务器端

基于 Hatch CLI 的 MCP(模型上下文协议)后端实现,提供资源与数据访问、工具注册与执行、以及 Prompts 渲染等能力。服务器通过 JSON-RPC 与 AI 客户端通信,注册多种工具并暴露给客户端,支持通过标准输入/输出(stdio)等传输方式进行交互,适合作为 LLM 助手的上下文与功能服务端。该实现包含完整的服务器端逻辑、工具注册、认证、以及与 Hatch API 的交互。

网页与API

Open MCP App 服务器实现

基于 MCP Apps 规范的后端服务实现,提供资源的注册与管理、工具的注册与执行、以及按规范渲染与传递 UI 资源,支持多主机环境并通过 JSON-RPC 与客户端通信,包含服务端核心逻辑、中间件、实验性扩展与测试用例。

AI与计算

odd-ssg MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,作为后端中间层对接 LLM 客户端与 odd-ssg 适配器,提供资源管理、工具注册与执行,以及基于模板的提示渲染能力,通过 JSON-RPC 与客户端通信。

AI与计算

MCP-CLI-Go 本地 MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具和提示模板的管理与执行,支持通过 JSON-RPC 与 MCP 客户端通信,并具备标准化的服务器端会话管理和多传输模式能力(如 StdIO)。

AI与计算

Whimbox-MCP 服务器实现

基于 Model Context Protocol (MCP) 的服务器端实现,作为 Whimbox 的后端服务,通过 JSON-RPC 提供资源/工具(Tasks/宏相关接口)等能力给大语言模型客户端调用,支持健康检查、嵌入式工具渲染与多传输协议(如 streamable-http)。