返回首页

"外部工具调用" 标签

30 个结果

标签搜索结果

网页与API

MGM-Assist MCP 服务端(Bright Data 集成)

基于 Model Context Protocol 的后端服务实现,提供用于 LLM 的实时数据获取与工具执行接口。通过 /mcp/tools 和 /mcp/execute 等端点向客户端暴露工具集合,支持对网页内容抓取、信息检索和实时数据查询等场景的即时响应,并可与 Bright Data 的数据源协同工作以实现更丰富的实时能力。

AI与计算

AI Product Manager MCP Servers

基于 Model Context Protocol 的多服务器实现集合,为大语言模型客户端提供资源、工具和提示模板等上下文服务,并通过 JSON-RPC 进行标准化通信,以支持资源访问、工具注册/执行以及提示模板渲染等能力。

AI与计算

Gemini Image MCP

基于 Model Context Protocol 的 MCP 服务器实现,利用 Google Gemini API 提供图像生成与编辑能力,并对外暴露资源、工具调用与提示模板等能力,供大语言模型客户端以统一的上下文服务进行交互。

AI与计算

CodexTools MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供工具调用、资源与提示管理,以及对外部能力的扩展,通过 JSON-RPC 在标准输入输出(STDIO)或未来扩展的传输方式与客户端交互。

AI与计算

ANT MCP 服务端实现(a-nice-terminal)

基于 Model Context Protocol(MCP)的服务器实现,通过 JSON-RPC 形式暴露 ANT 应用的会话、消息、终端等资源和工具,供大型语言模型客户端以标准化方式读取、创建与操作。

AI与计算

Margin MCP Server

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具执行以及提示模板的标准化上下文服务,供 LLM 客户端通过 JSON-RPC 进行数据访问、功能调用和提示渲染,并通过 stdio 等传输协议与 Claude Desktop 等客户端协同工作。

AI与计算

Claude Code Harness MCP 服务器集成(Serena MCP)

基于 Model Context Protocol (MCP) 的后端实现,作为 Claude Code Harness 的核心服务之一,负责托管资源(Resources)、注册及执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与 LLM 客户端进行标准化交互,提供上下文信息、数据访问与外部功能调用等能力,支持多种传输方式(如标准输入输出、SSE、WebSocket 等)以实现安全、可扩展的后端上下文服务框架。

AI与计算

MDDB MCP 服务端

基于 MDDB 的 MCP 服务器实现,提供资源托管、工具注册与执行、以及 MCP 配置输出等核心能力,便于将 MDDB 作为上下文服务对接大语言模型客户端。

AI与计算

MCP-MSAccess-Backend

基于 Model Context Protocol (MCP) 的后端服务器,提供对 Microsoft Access 数据库的资源管理、工具注册与执行以及提示模板渲染等能力,供大语言模型客户端通过 JSON-RPC 调用以获取上下文和功能支持。

AI与计算

Skulto MCP 服务器

基于模型上下文协议(Model Context Protocol,MCP)的后端服务器实现,向 LLM 客户端提供技能资源、工具注册与执行以及提示模板的定义与渲染,支持 JSON-RPC 调用、会话管理与多传输协议接入。

AI与计算

Climi MCP 服务端(Kimi 集成)

基于模型上下文协议(MCP)的后端服务器,用于向 LLM 客户端暴露资源、工具和模板等上下文信息,并通过多传输协议与客户端通信,专为 Claude Code 的 Kimi 集成场景提供可扩展的上下文服务。

AI与计算

ELF-MCP 服务器实现

基于 ELF 的 MCP 服务器实现,提供对大型语言模型(LLM)客户端的资源、工具调用与提示模板的上下文服务。通过 JSON-RPC 风格的 MCP 协议,将对资源和工具的访问请求转发到 ELF HTTP API,支持多种传输和会话模式,易于与 Claude 等 MCP 客户端对接。

AI与计算

pwndbg-mcp

基于 Model Context Protocol (MCP) 构建的后端服务器,为 LLM 客户端提供对 pwndbg/GDB 调试相关资源、工具和提示模板的标准化访问接口。

网页与API

llmtext-mcp

自动将任意网站的 `llms.txt` 文件转换为一个专用的 MCP 服务器,为大语言模型提供即时上下文访问。

通信与社交

Discord语音助手MCP服务器

基于MCP协议,为LLM提供Discord语音交互、消息发送和音频播放等工具的后端服务。

通信与社交

Discord MCP Bot

一个基于Model Context Protocol (MCP) 构建的服务器,旨在将Discord功能(如用户信息、机器人延迟)作为上下文资源和可调用工具,提供给大型语言模型(LLM)客户端使用。

数据库与文件

Node.js Snowflake MCP 服务器

一个基于 Node.js 和 TypeScript 的 MCP 服务器,使 LLM 能够直接查询和交互 Snowflake 数据库。

AI与计算

Veas CLI

Veas CLI是一个通用命令行工具,通过实现Veas协议和内置MCP服务器,为知识管理系统和AI助手提供无缝集成。

AI与计算

Amazon SES v2 MCP 示例服务器

基于 Model Context Protocol (MCP) 为 Amazon SES v2 提供接口的示例服务器,支持通过LLM客户端访问和调用SES功能。

AI与计算

Servidor MCP Livraria em .NET

Um servidor Model Context Protocol (MCP) em .NET que permite a LLMs acessar e gerenciar dados de uma livraria através de ferramentas.

AI与计算

Membase MCP 服务器

连接LLM客户端与Membase去中心化内存网络,存储和检索AI会话历史及知识。

AI与计算

Quicksilver: Sentient AI 框架

连接大型语言模型(LLM)与去中心化物理基础设施网络(DePIN),构建可感知现实世界的先进AI代理后端。

网页与API

MCP工具服务示例

基于FastMCP框架实现的AI工具服务,提供任务查询和天气查询等功能,并通过MCP协议与客户端通信。

网页与API

同程旅行MCP服务器

基于MCP协议,集成非官方同程旅行火车票查询功能和系统时间查询工具,为LLM提供外部能力。

开发者工具

MCP协议 TypeScript示例集合

使用 TypeScript SDK 实现的 MCP 服务器和客户端示例,涵盖多种传输协议和授权流程。

AI与计算

Quickchat AI MCP服务器

将Quickchat AI Agent集成到任何支持Model Context Protocol的AI应用中,提供定制化AI能力和上下文服务。

AI与计算

mcp

基于Model Context Protocol的Superface工具服务器,为LLM客户端提供工具发现和调用能力。

网页与API

my mcp server

一个简单的MCP服务器示例,提供获取美国地区天气预报的工具,可以通过Claude等MCP客户端调用。

网页与API

mcp weather stdio

一个基于Model Context Protocol (MCP) 的天气服务服务器示例,通过标准化的MCP协议向LLM客户端提供天气查询工具,支持通过STDIO进行通信。

开发者工具

Quarkus MCP Server

Quarkus MCP Server是一个基于Quarkus框架的扩展,用于简化Model Context Protocol (MCP) 服务器的开发,帮助开发者轻松构建LLM应用的后端服务,实现与外部数据源和工具的无缝集成。