返回首页

"插件架构" 标签

7 个结果

标签搜索结果

AI与计算

Tukuy MCP 服务器

基于 Model Context Protocol 的 MCP 后端实现,提供资源与工具的托管管理、工具注册与执行、Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 Stdio、SSE、WebSocket)以为 LLM 客户端提供安全、可扩展的上下文服务框架。

AI与计算

BrowserForce MCP服务器

基于 Model Context Protocol (MCP) 的本地化服务器,提供资源、工具与提示模板的标准化管理与访问,并通过 JSON-RPC 与客户端通讯,支持多传输协议(如 stdio/SSE/WebSocket)以便让 LLM 客户端在本地安全、可扩展地上下文化浏览器环境。

AI与计算

Pyrite MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供标准化的资源管理、工具执行与提示渲染能力,通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、分层权限以及多传输协议的上下文服务框架。

AI与计算

Code-Index-MCP

基于 Model Context Protocol (MCP) 的后端服务器实现,提供向 LLM 客户端按标准化方式暴露资源、工具与 Prompt 模板的能力。服务器通过 JSON-RPC 风格的协议与客户端交互,支持本地代码索引、插件化语言工具、语义检索以及可扩展的上下文服务,适用于在本地环境或容器中为 AI 助手提供代码理解与上下文数据。

AI与计算

Cloto MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端框架与一系列可运行的 MCP 服务器实现,提供资源、工具、提示模板的统一管理,并通过 MCP JSON-RPC 机制向本地或远端的 LLM 客户端渲染上下文与功能。

AI与计算

MCP网关

MCP网关是用于管理和增强多个MCP服务器的代理,提供统一的安全防护、监控和管理功能,提升AI基础设施的安全性与可维护性。

桌面与硬件

Ghostie 智能助手

Ghostie 是一款基于 Tauri + React 开发的跨平台智能助手桌面应用,旨在简化用户与各种 AI 模型的交互,提供桌面系统集成和插件扩展能力,但并非 MCP 服务器实现。