返回首页

"插件系统" 标签

8 个结果

标签搜索结果

桌面与硬件

BLE-MCP 服务器(BLE 模型上下文协议后端)

基于 Model Context Protocol(MCP)的后端服务器,将BLE设备的上下文、工具和协议规范以标准化的JSON-RPC方式提供给LLM客户端,支持资源管理、工具注册/执行以及协议模板的渲染,采用stdio传输实现无网络端口的会话式通信。

网页与API

Easy Proxy MCP 服务端 (代理+插件生态的后端服务)

基于 Model Context Protocol (MCP) 的服务端实现,提供标准化的上下文服务以向 LLM 客户端暴露资源、工具、以及可渲染的提示模板等能力;通过 JSON-RPC 与客户端通信,内置路由规则、Mock 服务、插件系统与自动化插件生成功能,支持多种传输模式与会话管理。

开发者工具

GoodVibes MCP 服务端插件集合

一个基于 Model Context Protocol 的多引擎 MCP 服务器集合,提供统一的资源管理、工具注册与执行、以及 Prompt 模板渲染等能力。通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及可扩展的传输协议(如标准输入输出、Server-Sent Events、WebSocket 等)。仓库中包含多个独立的 MCP 服务器实现(前端分析引擎、项目工程引擎、精密引擎、批处理引擎等),形成一个对话式、可扩展的后端上下文服务框架,供 LLM 客户端按需调用。

AI与计算

unplugin-devpilot MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,整合插件注册、工具执行、资源管理与提示模板,通过 JSON-RPC 与浏览器客户端通信,支持 WebSocket 与 HTTP 传输,为 LLM 提供统一的上下文、工具调用和提示渲染能力,方便在开发环境中扩展自动化工具和上下文服务。

AI与计算

M3M MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,用于向 LLM 客户端以标准化方式提供 M3M 的运行时文档、工具和资源信息。服务器通过 JSON-RPC 进行通信,支持标准输入输出(stdio)和 HTTP/SSE 两种传输方式,并且具备插件扩展能力以加载外部模块的接口描述。

开发者工具

Rizom Brains

一个基于Model Context Protocol (MCP) 的模块化、可扩展知识管理系统,为AI助手提供上下文信息、工具和资源。

AI与计算

Hyper MCP

Hyper MCP是一个基于WebAssembly和OCI Registry插件系统的模型上下文协议(MCP)服务器,旨在为LLM应用提供可扩展的上下文服务。

开发者工具

amphipod

AmphiPod是一个轻量级的HTTP MCP服务器,使用Go语言开发,支持WebAssembly工具插件,旨在简化AI工具集成。