返回首页

"WebSocket" 标签

43 个结果

标签搜索结果

AI与计算

Runbook AI MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供浏览器自动化能力的资源、工具与提示模板,通过 JSON-RPC 与 MCP 客户端通信,并通过 WebSocket 与 Chrome 扩展协同执行任务。

网页与API

Tlamatini MCP 服务器

基于 Model Context Protocol(MCP)的多传输 MCP 服务器实现,向 LLM 客户端提供资源托管、工具注册/执行、以及提示模板渲染等上下文与能力。内部包含WebSocket(系统指标 / 资源上下文)与 gRPC(文件检索)等服务器组件,具备会话管理与多用户隔离能力,支持向客户端暴露资源、工具、提示等 MCP 相关信息,并通过相应传输协议进行请求/响应与通知。

AI与计算

EV2090 MCP 后端服务器实现

基于 Model Context Protocol (MCP) 的服务器实现,提供资源、工具、提示等接口的标准化管理与访问,支持 JSON-RPC 的请求/响应,通过 WebSocket、SSE、HTTP POST 等传输方式与 LLM 客户端进行交互,并在 Cloudflare Workers 上实现会话管理、权限控制和多传输协议支持的后端服务框架。

开发者工具

ha-mcp - MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型客户端提供 Home Assistant 的资源、工具和提示模板,并通过 JSON-RPC 标准化通信实现上下文管理、资源访问、工具执行与模板渲染等能力,支持多传输协议(以 WebSocket 为主,REST 提供部分 CRUD 功能),实现对 LLM 的安全、可扩展上下文服务。

AI与计算

CorvidAgent MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供标准化的资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,并通过 JSON-RPC 及 WebSocket/HTTP 等传输向 LLM 客户端暴露上下文与能力。该仓库实现了服务器端的完整 MCP 体系,包含工具箱、资源、提示模板等核心组成部分,以及用于与 MCP 客户端进行通信的路由与路由器。

桌面与硬件

ESP32MCPServer

基于 Model Context Protocol 的 MCP 服务器,运行在 ESP32(以及 Nordic nRF52840 的传感器端模式),通过 WebSocket/JSON-RPC 提供资源管理、工具注册与调用、以及可渲染的 Prompt 模板等能力,面向 LLM 客户端实现上下文与功能服务。

AI与计算

agent-coworker MCP 服务器实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、远程工具注册与执行,以及可自定义的 Prompt 模板渲染,支持多种传输协议(如 WebSocket、HTTP/SSE、stdio)并实现会话管理、能力声明和认证等服务端功能,面向与 LLM 客户端的标准化上下文与能力对接场景。

AI与计算

Koryphaios MCP后端服务器

基于 Model Context Protocol(MCP)的后端服务器,向大型语言模型客户端提供标准化的资源、工具与提示模板,并通过JSON-RPC进行交互;具备会话管理、能力声明、多传输协议支持(如 StdIO、SSE、WebSocket)以及安全可扩展的上下文服务框架。

AI与计算

Elisa MCP 后端服务器

基于模型上下文协议(MCP)的后端服务器实现,集成资源/工具/提示模板的管理与暴露,通过 Express + WebSocket 提供对 LLM 客户端的上下文服务,并支持通过外部 MCP 服务器和设备插件进行扩展与连接。

网页与API

NullShot TypeScript MCP Server Toolkit

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源/工具/提示的管理及标准化的 JSON-RPC 通信,并通过 SSE/WebSocket 等传输方式向 LLM 客户端提供上下文与能力服务。该仓库实现了可运行的 MCP 服务器端代码,包含 Durable Object、Hono 服务集成、SSE 与 WebSocket 传输等核心组件,以及用于测试的示例服务端实现。

网页与API

Local Deep MCP Server

基于 Model Context Protocol (MCP) 的本地后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等能力,供 LLM 客户端通过标准化的 JSON-RPC 进行资源读取、工具调用与提示渲染。实现了多传输协议(如 STDIO、SSE、WebSocket)下的通信,具备会话管理与能力声明,旨在为本地化的上下文服务与推理工作流提供结构化的后端支撑。

AI与计算

Xenobot MCP 服务器

基于 Model Context Protocol 的后端实现,提供资源托管与访问、工具注册与执行,以及面向 LLM 的 JSON-RPC 通信,并通过 WebSocket、SSE 与 HTTP 传输协议与客户端交互。

AI与计算

Paseo MCP服务器实现

基于 Model Context Protocol(MCP)的后端服务实现,作为LMM客户端的上下文与能力提供者:承载并管理资源、注册与执行工具、定义与渲染 Prompt 模板;通过 JSON-RPC 在多种传输通道(如 WebSocket/Stdio/SSE 等)上与客户端通信,实现会话管理、能力声明与安全扩展的上下文服务框架。

AI与计算

RemNote MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,作为后端服务向 AI 客户端提供 RemNote 资源、工具以及提示模板的访问与执行能力。通过 JSON-RPC 形式与客户端通信,支持 HTTP 与 WebSocket 双通道并发会话管理,桥接 RemNote 插件实现的资源操作与外部 AI 行为。作为 RemNote Automation Bridge 的服务端组件,完整实现了 MCP 的基本功能与流程。

开发者工具

REVIT MCP 服务器端实现

基于 Model Context Protocol (MCP) 的 Revit MCP 服务器端实现,提供 MCP 服务、工具注册与执行,并通过 WebSocket/StdIO 与 Revit Add-in 进行命令传输与执行,支持通过 LLM 客户端调用 Revit API 的工具与资源,形成面向 AI 的上下文与功能服务端。

AI与计算

Stacker MCP 服务器实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具及提示模板的托管与管理,并通过 JSON-RPC/WebSocket 形式与 LLM 客户端进行通信,实现会话管理、能力声明与多传输协议的上下文服务。

开发者工具

RemNote MCP 服务器(CLI 守护进程实现)

基于 Model Context Protocol(MCP)理念的服务器实现,通过 WebSocket 与 RemNote 插件进行桥接,提供对资源/数据的访问、工具调用能力,以及提示/模板渲染等能力。服务器通过 JSON-RPC 风格的请求-响应在客户端与 RemNote 插件之间传递指令与结果,并暴露 HTTP 控制接口用于管理会话、健康状态和执行命令,支持日志、进程管理与版本对齐等特性,具备可运行的后端 MCP 服务能力。

开发者工具

MaxMCP - Max/MSP 的模型上下文 MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,将 Max/MSP 的补丁、对象、工具等上下文信息以标准化的 JSON-RPC 形式提供给 MCP 客户端(如 Claude Code 这类集成工具),支持通过 WebSocket 与 stdio 两种传输通道进行通信,并包含对多补丁、工具集、资源访问、以及补丁渲染模板等功能的实现与管理。

AI与计算

Revit MCP Server

基于 Model Context Protocol 的 Autodesk Revit 后端服务器,提供资源管理、工具注册/执行和提示模板渲染,并通过 WebSocket 与 LLM 客户端进行 JSON-RPC 风格的上下文服务交互。

AI与计算

MCP 服务端(前端边缘 MCP 服务器与代理)

基于 Model Context Protocol 的完整 MCP 服务器实现,提供浏览器端边缘节点与远程代理之间的 JSON-RPC 通信、资源与工具管理、事件存储/查询,以及多会话、多标签下的工具路由等能力,支持 WebSocket 与 HTTP 传输。该仓库不仅包含前端边缘设备的实现,还实现了用于代理端的 Node.js 服务器、以及与 MCP 协议对接的服务端组件,形成一套较完整的 MCP 服务端生态。]

AI与计算

MuseScore MCP Server

基于 Model Context Protocol 的 MuseScore 集成后端服务,向大型语言模型客户端提供对 MuseScore 的实时控制、资源访问和批量操作工具,通过 WebSocket 插件与 MuseScore 通信,使用 MCP 协议以标准化的 JSON-RPC 形式进行请求/响应。

开发者工具

Sentinel — MCP 流量透传与观测代理

基于 Model Context Protocol (MCP) 的观测型后端代理,作为 MCP 客户端与服务器之间的透明中间件,实现对 JSON-RPC 请求/响应的零拷贝透传,同时提供实时可视化、历史日志与可选的审计签名能力,帮助开发者在不干预执行的前提下对工具链进行观测和回放。

AI与计算

Xiaozhi ESP32 MCP 服务器(Golang 实现)

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,并支持多传输协议(如 WebSocket、MQTT/UDP 等)通过 JSON-RPC 与客户端通信,面向边缘设备和物联网场景的上下文服务解决方案。

AI与计算

Crackerjack MCP 服务器

基于 Crackerjack 的 MCP(Model Context Protocol)服务器实现,提供资源托管与管理、工具注册与执行、以及可渲染的 Prompt 模板等核心能力,通过 JSON-RPC 与客户端通信,并支持多种传输方式(如 WebSocket、StdIO、SSE),为 LLM 客户端提供安全、可扩展的上下文服务框架。

数据库与文件

Typedb-MCP-Server

Gateway MCP em Rust para conectar LLMs e aplicações a bancos de dados TypeDB.

通信与社交

狼人杀MCP游戏服务器

基于Node.js和WebSocket实现,为狼人杀游戏提供核心后端逻辑和MCP协议通信能力。

网页与API

Solana MCP服务

Solana MCP服务是一个应用后端,旨在为LLM客户端提供访问Solana区块链的标准化上下文服务。

开发者工具

Commune

Commune 是一个 Rust 库,用于构建可发现的 AI 代理网络,它基于 MCP 协议,提供资源、工具和 Prompt 管理等核心服务器功能,并支持 WebSocket 通信。

开发者工具

MCP Unity编辑器桥梁

Unity编辑器桥梁资源,通过WebSocket协议连接MCP服务器,实现远程控制和自动化编辑操作。

网页与API

汽车信息查询MCP服务器

基于MCP协议的汽车信息查询服务,通过WebSocket为客户端提供车辆数据检索功能。

网页与API

OWL API Server

基于FastAPI构建的OWL多智能体系统后端,提供RESTful API和WebSocket接口,用于上下文服务。

网页与API

Nchan MCP Transport

基于Nginx和FastAPI的高性能MCP服务器,支持WebSocket/SSE协议,集成OpenAPI,用于构建实时LLM应用。

通信与社交

简易多Agent通信服务器

一个基于WebSocket和SSE实现的轻量级服务器,用于演示多Agent之间的消息传递和功能调用,虽非完全符合MCP标准,但展示了其核心思想。

AI与计算

kno2gether gemini multimodal playground

一个基于WebSocket的MCP代理服务器,用于连接和管理多个MCP后端服务器,并通过Web界面为LLM应用提供工具调用能力。

开发者工具

Stdio to SSE MCP

将基于stdio的MCP服务器转换为WebSocket服务器,方便客户端通过网络访问和使用MCP服务。

AI与计算

math mcp

该仓库提供了一个基于Cloudflare Workers和Durable Objects的MCP服务器参考实现,专注于通过WebSocket提供数学计算工具服务。

桌面与硬件

ESP32MCPServer

ESP32MCPServer是基于 Model Context Protocol 的服务器实现,专为 ESP32 微控制器设计,通过 WebSocket 提供资源管理和实时数据更新服务,适用于连接 LLM 应用。

开发者工具

cf mcp durable object

一个基于Cloudflare Durable Objects实现的MCP服务器,通过WebSocket提供资源、工具和Prompt服务,并包含一个stdio代理客户端用于本地测试。

开发者工具

mcp server runner

为 MCP 服务器提供 WebSocket 接入能力,方便 Web 应用等客户端连接和使用 MCP 服务。

商业系统

binance mcp server

提供币安交易所现货和期货市场数据的MCP服务器实现,支持WebSocket实时数据流。

网页与API

binance mcp

一个MCP服务器,为LLM客户端提供实时的币安市场数据,支持现货和期货交易对,并可通过工具调用获取市场数据和订阅数据流。

AI与计算

WebSocket Enhancer

该仓库实现了一个基于WebSocket增强的MCP服务器,支持标准MCP请求处理和实时数据推送功能。

商业系统

Binance

基于Model Context Protocol的MCP服务器,为LLM应用提供实时的币安交易所现货和期货市场数据,支持WebSocket流式传输。