返回首页

"工具暴露" 标签

38 个结果

标签搜索结果

AI与计算

context-use MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务器端实现,提供对内存/资源的暴露、工具注册与执行,以及与客户端的 JSON-RPC 交互能力,支持通过不同传输协议与 LLM 客户端通信以提供上下文服务和记忆能力。

AI与计算

Angel OS MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供资源、工具和提示模板等以标准化 JSON-RPC 形式暴露给 LLM 客户端,通过 stdio 传输与 Claude Code/LEO 等对话系统进行交互,并支持多租户、工具注册、资源管理和会话能力声明。

AI与计算

tvscreener MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向 AI 客户端提供 TradingView Screener 的字段发现、灵活查询与市场筛选等功能,通过 JSON-RPC 进行通信,并暴露若干 MCP 工具供调用。

AI与计算

Claude Code Docs MCP Server

基于模型上下文协议(MCP)的后端服务器实现,提供用于 Claude Code 文档查询的工具集,并通过 JSON-RPC 风格请求/响应与客户端进行交互,具备可运行的服务端能力和简单的资源/工具暴露能力。

商业系统

Factorial MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,提供与 Factorial HR API 的集成,向大语言模型客户端暴露资源、工具与提示模板,并通过 JSON-RPC(STDIO/HTTP等传输)进行标准化通信与会话管理。

AI与计算

KubeClaw MCP 服务器实现

基于 Model Context Protocol(MCP)的后端实现,向被训练的大型语言模型(LLM)客户端提供标准化的上下文资源、主机工具以及提示模板的访问与执行能力。该仓库实现了一个主机端 MCP 服务,暴露了 git 信息、读取密钥、GitHub API 调用以及主机端审批等工具,并通过嵌入式运行时实现了端到端的 MCP 服务能力,支持多通道接入(如 Discord、CLI),并有内存/日志等辅助能力,符合 MCP 服务器的核心职责:资源、工具、Prompt 的管理与渲染,以及 JSON-RPC 形式的请求/响应通信。

AI与计算

Goke MCP 服务器适配器

基于 Model Context Protocol(MCP)的后端实现,提供将 Goke CLI 命令暴露为 MCP 工具并通过服务器端接收、注册、执行与管理的能力。支持通过标准输入/输出(stdio)等传输层与 MCP 客户端通信,包含工具注册、工具调用、输入输出 JSON 架构的推送、以及基于 OAuth 的授权流程与本地回调服务器等关键功能。

AI与计算

PKS MCP 服务端(Model Context Protocol 实现)

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源管理、工具暴露与提示模板渲染等核心能力,通过 JSON-RPC 与 AI 客户端通信,支持多传输模式,具备会话管理与能力协商能力。

AI与计算

AI-ATLAS MCP 服务端

基于 AI-ATLAS 的后端服务器实现,通过生成的 MCP 工具和 OpenAPI 规范,向大语言模型客户端提供资源、工具和提示模板等上下文服务,支持基于 SSE 的传输与 JSON-RPC 风格的协作能力。

网页与API

JFL MCP Server Suite

基于 MCP 协议的后端实现集合,提供面向 LLM 客户端的上下文服务、资源与工具注册、以及提示模板的标准化渲染能力。仓库内包含多个 MCP 服务器实现(如 Context Hub MCP、Service Registry MCP、Service MCP、Peer MCP 等),通过 JSON-RPC 在 STDIN/STDOUT 进行通信,支持通过工具化接口向 LLM 提供资源、执行外部工具、以及渲染 Prompts/模板等上下文能力。

AI与计算

Janus MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,为 LLM 客户端提供标准化的资源、工具与提示的暴露和管理,并通过 JSON-RPC 进行远程调用与会话管理,具备可扩展的插件式架构与本地化推理上下文服务。

AI与计算

OpenSpawn MCP 服务器

基于 MCP 协议实现的后端服务,按标准 JSON-RPC 向 LLM 客户端暴露工具(Tools)、资源管理能力与提示模板等能力,并通过与沙箱模拟器的集成提供统一的上下文和功能接口。服务器核心包含对 MCP 请求的处理、初始化能力声明、工具列表示以及工具调用执行等核心功能,支持与 BikiniBottom 沙箱的发送/接收、路由与任务管理等模块协同工作。

开发者工具

gws MCP 服务器

基于 Model Context Protocol(MCP)的后端实现,提供 Google Workspace API 的工具集并通过 JSON-RPC 以标准化方式与 MCP 客户端通信,支持工具注册、执行调用、会话管理与多种传输场景(如 STDIO)。

AI与计算

UNCASE MCP 服务器

基于 Model Context Protocol 的 UNCASE 后端实现,使用 FastMCP 将 seeds、tools、prompts 等上下文资源以 JSON-RPC 风格暴露给 LLM 客户端,并支持工具执行、模板渲染等功能的 MCP 服务器实现。

AI与计算

Conductor MCP Server (STDIO)

基于 Model Context Protocol (MCP) 的服务器实现,提供资源与工具暴露、提示模板渲染等能力,并通过 STDIO 进行 JSON-RPC 风格的通信,方便 LLM 客户端以统一方式读取资源、调用工具、获取提示模板等上下文信息。

AI与计算

study-all MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具与会话数据的标准化上下文服务,供 Claude/Codex 等 LLM 客户端通过 JSON-RPC 调用访问与管理学习相关的能力与数据。

开发者工具

Fray MCP 服务器

基于 Fray 的 MCP(Model Context Protocol)实现的后端服务器,将 payload 数据、WAF 指纹和 CVE 细节以工具形式暴露给 AI 助手调用,支持通过 JSON-RPC 与客户端通信,提供工具注册、资源管理和会话上下文能力,便于在 AI 工作流中进行上下文驱动的安全测试与结果分析。

AI与计算

MemoryLane MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的管理、以及 Prompt 模板的定义与渲染,向 LLM 客户端按标准化 JSON-RPC 方式提供上下文信息与功能。通过 STDIO 传输、可扩展传输等能力,支持对本地活动历史的上下文服务。

网页与API

iTaK MCP Server

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,能够在后端以标准化的 JSON-RPC 风格向 MCP 客户端暴露工具、任务看板等功能,并通过 Bearer Token 进行简易鉴权;提供可将 MCP 服务接入 FastAPI 的路由接口,支持多工具注册与远程调用等具体能力。

AI与计算

Embabel-Agent-MCP Server 示例

基于 Spring Boot 的 MCP(模型上下文协议)服务器实现示例,提供工具暴露、资源管理与 prompts 渲染等核心能力,支持通过 SSE 进行 JSON-RPC 通信,作为 LLM 客户端的上下文与功能后端。包含 Kotlin 与 Java 两种实现以及可直接运行的服务器启动脚本,适配 Claude Desktop 等 MCP 客户端进行集成测试与演示。

AI与计算

Ollama MCP 服务器

将本地 Ollama API 以工具形式暴露给 Cursor、Claude Desktop 等 LLM 客户端的后端服务,提供模型管理、对话、生成与嵌入等能力的 MCP 服务端实现。

AI与计算

DeepSeek MCP 服务器(StdIO 通信实现)

基于 Model Context Protocol(MCP)的本地 MCP 服务器实现,提供对 Tools、Resources、Prompts 的标准化暴露,并通过 JSON-RPC 形式与客户端通信,支持通过标准输入输出(STDIN/STDOUT)进行请求与响应。

网页与API

Google Workspace MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 方式暴露资源管理、工具执行以及提示模板的能力,核心通过 registerTool 将大量 Google Workspace 相关操作暴露为可调用的工具集,支持以 Stdio 传输等多种通信方式进行上下文服务与会话管理。

网页与API

CoWork OS MCP 服务器集合

基于 Model Context Protocol (MCP) 架构的后端服务器实现集合,提供资源/工具暴露、MCP 客户端注册与执行、以及多工具/多提供者的上下文服务能力,支持通过标准的 MCP JSON-RPC 进行通信和管理。仓库内包含多个独立的 MCP 服务器实现(如 Linear、HubSpot、Jira、Salesforce、Zendesk、Asana 等)以及一个可复用模板,均以 STDIO 形式实现服务端。

AI与计算

AudioReader MCP Server

基于 Model Context Protocol (MCP) 的 AudioReader 后端实现,暴露工具给 LLM 客户端以读取资源、调用工具、获取并渲染 Prompts 等,便于与 Claude/OpenAI 等对接进行上下文服务和功能调用。

AI与计算

DeepCode MCP Server合集

一组基于 Model Context Protocol (MCP) 的 MCP 服务器实现集合,提供资源读取、代码/文档处理、代码索引、网页/文件检索等工具服务。通过 FastMCP 等框架实现服务器端的工具暴露与JSON-RPC通信,支持多种服务器脚本独立运行,用于向 LLM 客户端提供统一的上下文、工具执行和提示渲染能力。

AI与计算

MCP-Plugin-dotnet 服务器端(Bridge 版)

基于 Model Context Protocol (MCP) 的.NET 实现,提供 Tools、Prompts、Resources 的注册与执行,并通过 SignalR 进行与 MCP 客户端的双向通信,支持多传输模式(stdio、http),实现会话管理、能力声明和扩展的 JSON 序列化配置,适合作为本地应用的 MCP 服务器桥接层。

AI与计算

Rogue-基于模型上下文协议的MCP服务器示例

基于模型上下文协议(Model Context Protocol,MCP)的后端示例,封装 Shirtify 代理并通过send_message工具向MCP客户端提供上下文对话能力与外部功能调用,支持 SSE/streamable_http 等传输模式的JSON-RPC风格交互。

AI与计算

SynthFlow MCP 服务器

基于 Model Context Protocol (MCP) 的本地服务器实现,提供以 JSON-RPC 方式与客户端通信的能力,暴露工具调用入口并可扩展资源与提示等能力

AI与计算

Klondike MCP Server(Klondike Spec CLI)

基于模型上下文协议(MCP)的后端实现,向 MCP 客户端暴露 Klondike Spec 的资源、工具和提示模板等能力,并通过 JSON-RPC 形式处理请求与响应,支持多传输协议用于与大型语言模型的无缝对接。

AI与计算

Docmost MCP Bridge 与 MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现与桥接组件,允许 LM 模型/代理通过标准 JSON-RPC 方式读取资源、调用工具、获取与渲染 Prompt 模板等,核心包含一个可运行的 MCP 服务端以及将 Cursor 等客户端接入 Docmost 的桥接层。

网页与API

PraisonAI MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 STDIO、SSE、WebSocket)以为 LLM 客户端提供可扩展的上下文服务框架。

AI与计算

Agents Backend MCP 服务器实现

基于 Model Context Protocol(MCP)的服务器实现,用于向 LLM 客户端以标准化方式暴露资源、工具以及 Prompt 模板等上下文服务,支持通过多种传输协议与客户端通信,负责会话管理与能力声明,并可与 LangGraph 生态整合进行工具发现与执行。

AI与计算

Perplexity WebUI MCP 服务端

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,暴露 Perplexity WebUI 的查询能力给大语言模型客户端,通过 FastMCP 提供工具接口,支持会话、模型映射与网页检索等能力。

AI与计算

News Desk MCP 服务器(Python 实现)

基于 MCP 协议的后端服务器实现,向大语言模型客户端以统一的 JSON-RPC 方式暴露新闻检索与全文获取等工具,方便在对话中调用外部功能、获取上下文信息与执行相关任务。

AI与计算

ida-headless-mcp

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板等能力,结合 ida-headless 的二进制分析功能,供大语言模型客户端通过 MCP 进行上下文信息获取与功能调用。

AI与计算

vibing.nvim MCP 服务端

基于 MCP(Model Context Protocol)的 Neovim 后端实现,为 MCP 客户端提供工具暴露与执行、以及与 Neovim 的远程过程调用(RPC)桥接。通过 JSON-RPC 提供标准化的请求/响应,支持在 Studio/stdio 传输环境下与 Claude 等 LLM 客户端协同工作,便于在编辑器内进行上下文管理和外部功能调用。

网页与API

WebMCP

WebMCP允许网站作为MCP服务器,通过WebSocket连接向客户端LLM提供网站工具、资源和Prompt,无需共享API密钥。