返回首页

"Tools" 标签

18 个结果

标签搜索结果

AI与计算

Roo Extensions MCP 服务器套件

基于 Model Context Protocol (MCP) 的后端服务器实现集合,向 LLM 客户端以标准化方式提供资源、工具和提示,并通过 JSON-RPC 进行通信;支持多机器协同、会话管理与多传输协议(如 STDIO、SSE、WebSocket)的可扩展上下文服务框架。仓库内含多个 MCP 服务实例及封装器,用于托管资源、注册工具、渲染Prompts,并提供运行和测试环境。

AI与计算

AFS MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器,通过 JSON-RPC 标准向 MCP 客户端提供 Resources、Tools 与 Prompts 的注册、查询、执行与渲染等核心能力,并支持会话管理与多传输协议接入。

AI与计算

Brakit MCP Server

Brakit 提供基于 Model Context Protocol (MCP) 的服务器端实现,向大型语言模型(LLM)客户端以标准化方式暴露资源、工具和提示模板,并通过 JSON-RPC 进行通信,支持会话管理、能力声明以及多种传输方案,用于在本地环境中为 LLM 应用提供上下文服务与扩展能力。

网页与API

Nomen MCP Server

基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示的标准化上下文服务,支持通过 JSON-RPC 在 stdio/HTTP 传输,并与 Nostr、SurrealDB、嵌入式模型及上下文虚拟机等模块无缝协作,兼容多种客户端框架的后端上下文服务。

AI与计算

Flow Weaver MCP 服务器实现

基于 Flow Weaver 的 MCP 服务器实现,提供资源、工具和提示模板的标准化管理与对外暴露,通过 JSON-RPC 与 LLM 客户端进行上下文服务、工具调用和提示渲染,支持多传输协议与会话管理,适配 Claude Code、Cursor、OpenClaw 等 MCP 客户端与插件生态。

AI与计算

Flowise Dev Agent MCP 服务器

基于 Model Context Protocol 的完整 MCP 服务器实现,面向 LLM 客户端提供标准化的上下文与功能服务。核心功能包括托管与管理 Resources(资源/数据)、注册与执行 Tools(工具)、以及定义与渲染 Prompt 模板。服务器通过 JSON-RPC 与客户端通信,支持多协议传输、会话管理、能力声明和可扩展的工具集合,内置 51 个 Flowise 原生工具的 MCP 接口。

AI与计算

QMatSuite MCP Server

基于 Model Context Protocol (MCP) 的后端服务器, provide 资源管理、工具注册与执行、以及 Prompt 模板的定义/渲染,并通过 JSON-RPC 与 LLM 客户端进行通信。服务器负责会话管理、能力声明,并支持扩展的传输协议(如 STDIO、SSE、WebSocket),用于向大语言模型应用提供标准化的上下文信息、数据访问、和外部功能调用能力。该仓库实现了完整的 MCP 服务器端能力,包含资源、工具、知识库、演示/demo、以及多工具链的整合。

AI与计算

Epguides MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具注册与执行,以及可通过 JSON-RPC 2.0 与 LLM 客户端交互的接口,支持将电视剧集数据、查询工具和资源以标准化方式暴露给 AI 助手。

AI与计算

Guardrail MCP 服务器端实现

基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,通过 SSE+JSON-RPC 提供资源、工具和提示的托管、注册、执行与渲染,包含会话管理、权限控制、Web UI、数据库与缓存集成,支持多种传输协议,面向 AI 代理与 IDE 集成的上下文服务框架。

AI与计算

Goodfoot MCP 服务器集合

基于 Model Context Protocol(MCP)的后端服务器集合,向大型语言模型客户端以标准化方式提供上下文信息与功能,包括托管资源、注册与执行工具,以及定义/渲染提示模板;支持多种传输协议(Stdio、SSE、HTTP),通过 JSON-RPC 与客户端通信,适用于 Claude Code 等工作流场景。

AI与计算

Veritas Kanban MCP 服务器

基于 Veritas Kanban 的 MCP 服务器实现,提供以 JSON-RPC 方式向 AI 助手/客户端暴露资源、工具、提示模板等上下文能力的后端服务,并支持多传输通道与会话管理。

开发者工具

AgentOS MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具与 Prompt 模板的注册、管理、执行与渲染,并通过 JSON-RPC 与客户端进行通信,支持多种传输方式与会话管理,便于 LLM 客户端获取上下文信息与外部功能。

AI与计算

Farnsworth MCP 服务器

基于 Farnsworth 的 Model Context Protocol(MCP) 服务端实现;通过 MCP 协议向 MCP 客户端暴露资源管理、工具注册/执行以及提示模板等能力,支持多传输协议(如 Stdio、SSE、WebSocket),并实现会话管理与能力声明,提供一个安全、可扩展的上下文服务后端。

开发者工具

Free Crypto News MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供 MCP 的核心能力:注册并执行工具(Tools)、托管资源与数据,以及通过 JSON-RPC 风格的交互向 LLM 客户端提供上下文与功能,支持多传输协议(stdio 与 HTTP/SSE)以便与不同的 AI 客户端对接。项目中包含可运行的 MCP 服务器代码和 HTTP/SSE 传输实现,适合作为对接大模型代理的后端服务。

AI与计算

AMS

基于 Model Context Protocol (MCP) 的后端服务器,向大模型客户端提供资源、工具注册与执行、以及可渲染的提示模板等上下文服务,并通过 JSON-RPC 与客户端交互,具备会话管理、审计与记录等能力。

AI与计算

BoxLang-MCP 服务器

基于 Model Context Protocol (MCP) 的 BoxLang 后端服务器实现,提供对 Resources、Tools 与 Prompts 的注册、管理与暴露,并通过 JSON-RPC 与 MCP 客户端进行通信,支持多传输协议(如 STDIO、SSE、WebSocket),为 LLM 客户端提供标准化的上下文服务、会话与能力声明。

AI与计算

Echo Noise MCP 服务端实现

基于模型上下文协议(MCP)的后端实现,提供资源、工具与 Prompt 的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持多传输模式(如 Stdio、SSE、WebSocket)以及会话与能力声明,并可通过 MCP 客户端接入扩展能力。该仓库在后端 Go 语言实现了核心服务,并在 README 提供了配套的 MCP 客户端服务(MCP 服务器端 bundles/示例及接入文档)。

AI与计算

Identity MCP

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示模板的托管与管理,并通过 MCP 协议向 LLM 客户端暴露上下文服务、数据访问与外部功能调用能力。支持多种传输方式(HTTP/JSON-RPC、SSE、WebSocket/流式)以及多用户隔离。