返回首页

"实时通信" 标签

26 个结果

标签搜索结果

AI与计算

MCP Serve - Model Context Protocol 后端服务器

基于 Model Context Protocol 的后端 MCP 服务器实现,提供可执行的 MCP 服务(工具、资源、提示等能力)以供 LLM 客户端访问,采用 JSON-RPC 风格进行通信并支持多种传输方式(如 Server-Sent Events)。

AI与计算

NexonCo MCP:临床证据分析 MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供用于LLM的临床证据查询与分析的上下文服务。实现了一个可运行的MCP服务器,具备工具注册、数据获取(通过 CIViC GraphQL API)、健康与版本接口、以及基于 SSE/stdio 的多传输通信能力,面向精准医疗与肿瘤研究场景的上下文数据服务。

AI与计算

Overture MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及可渲染的 Prompt 模板等核心 MCP 功能,支持 JSON-RPC 的客户端通信、WebSocket/StdIO等多传输协议,以及多项目会话与历史持久化等特性。

开发者工具

NULL EPOCH MCP 服务器 (TNE-SDK 内置实现)

基于 Model Context Protocol 的本地 MCP 服务器实现,将 The Null Epoch 的游戏 REST API 以 JSON-RPC 风格暴露给 MCP 客户端,方便 AI 客户端通过 get_state 和 submit_action 等工具与游戏后端交互。该实现提供初始化、工具清单、单工具调用、通知等 MCP 基本功能,适用于 Claude Desktop、Cursor、Kiro 等支持 MCP 的客户端。

开发者工具

Bitbucket-CLI MCP 服务器

基于 Model Context Protocol 的 MCP 服务器端实现,提供 Bitbucket CLI 的资源、工具注册与执行能力,供 LLM/AI 客户端通过 JSON-RPC 调用并获取上下文信息和功能。

AI与计算

Sketch Context MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供 Sketch 文件的资源管理、工具执行与实时上下文服务,支持 WebSocket、SSE 和 HTTP 端点,便于将 Sketch 设计数据与 LLM 客户端(如 Cursor/IDE 插件)进行交互。

AI与计算

Agentation MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的管理、提示模板的渲染,以及通过 WebSocket 与 MCP 客户端进行 JSON-RPC 风格的交互,支持 OpenCode 等客户端的上下文与采样流程。

AI与计算

Bugsy MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,提供资源托管与管理、注册与执行工具、以及 Prompt 模板的定义与渲染,面向大型语言模型(LLM)客户端,通过 JSON-RPC 与客户端通信,并支持会话管理、能力声明以及多种传输协议(如 Stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务框架。

开发者工具

AI Annotator MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 Vite 插件的一部分,为 LLM 客户端提供页面上下文、元素选择、工具调用、截图等能力,并通过 JSON-RPC 与浏览器会话进行通信。包含标准的 MCP 服务器与基于 stdio/WebSocket 的客户端桥接实现,具备会话管理、工具注册及可扩展传输协议的完整逻辑。

AI与计算

Echo Noise MCP 服务端实现

基于模型上下文协议(MCP)的后端实现,提供资源、工具与 Prompt 的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输模式(如 Stdio、SSE、WebSocket)以及会话与能力声明,并可通过 MCP 客户端接入扩展能力。该仓库在后端 Go 语言实现了核心服务,并在 README 提供了配套的 MCP 客户端服务(MCP 服务器端 bundles/示例及接入文档)。

开发者工具

Workstation MCP Server

基于 Model Context Protocol 的后端服务器,为 LLM 客户端提供标准化的上下文、资源、工具与提示模板,并通过 JSON-RPC/WebSocket 实现 MCP 通信与扩展能力,支持会话管理、权限控制与多传输协议接入。

网页与API

Workstation MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源(Resources)托管与数据访问、工具(Tools)注册与执行、以及 Prompt 模板(Prompts)的定义与渲染,并通过 JSON-RPC/WebSocket 等通道与 LLM 客户端进行标准化上下文服务交互。

AI与计算

Agent Bridge MCP Server Mock & Integration

一个将 LangChain 代理与 MCP 服务器整合的后端平台,包含可运行的 MCP 服务器示例(Mock),用于向大模型客户端提供资源、工具和提示模板等上下文信息,并提供完整的服务端框架以注册、管理 MCP 服务器和工具权限,支持实时通信与安全认证等能力。

开发者工具

GitHub MCP SSE 服务端

一个基于MCP协议的服务器,通过SSE和Streamable HTTP提供GitHub API的上下文和功能,赋能LLM与GitHub交互。

开发者工具

PubNub MCP 服务器

为 LLM 客户端提供 PubNub 文档、API 及实时通信能力的 MCP 服务器。

AI与计算

FastAPI MCP 服务器

基于FastAPI的MCP服务器,为大型语言模型提供上下文管理、工具调用和SSE实时通信能力。

网页与API

MCP Gateway (Go)

mcp-gateway-go 是一个轻量级的 Go 网关,将基于 stdio 的 MCP 服务器转换为 Server-Sent Events (SSE) 接口,用于 Web 客户端实时通信。

开发者工具

Ably CLI MCP Server

基于Ably CLI的MCP服务器,为LLM客户端提供与Ably服务的上下文连接和功能调用能力。

AI与计算

MCP Python SSE Server

基于Python和SSE实现的MCP服务器,提供实时的LLM上下文服务和工具调用能力。

通信与社交

Bun MCP SSE Transport

基于Bun运行时环境的MCP服务器SSE传输实现,提供高效实时的服务端事件流传输能力。

AI与计算

MCP DeepSeek演示服务器

基于MCP协议实现的SSE服务器,集成DeepSeek模型,提供产品、库存、文件等工具调用能力。

AI与计算

MCP Lambda Server

基于AWS Lambda的MCP服务器实现,通过Server-Sent Events (SSE) 提供实时的上下文服务,支持工具、资源和Prompt管理。

AI与计算

LangChain4j AI Example MCP Server

基于LangChain4j和Spring Boot实现的MCP服务器,提供工具服务和SSE实时通信。

开发者工具

MCP SSE示例服务器

这是一个基于Server-Sent Events (SSE) 的Model Context Protocol (MCP) 服务器示例,展示了如何使用SSE协议构建支持工具和资源的Web应用后端。

开发者工具

fastify-mcp MCP服务器插件

fastify-mcp 是一个 Fastify 插件,用于快速构建基于 SSE 传输的 Model Context Protocol (MCP) 服务器,简化 Fastify 应用与 MCP 的集成。

开发者工具

sse mcp server

该仓库是基于Server-Sent Events (SSE) 的MCP服务器示例实现,旨在Netlify Edge Functions上部署,提供资源、工具和Prompt管理等核心MCP功能。