返回首页

"AI 助手集成" 标签

12 个结果

标签搜索结果

AI与计算

hop MCP 服务器端实现

基于 Model Context Protocol (MCP) 的服务器端实现,为 AI 助手提供对 Hop 配置、连接、分组、历史、工具和命令构建等能力的标准化访问;通过 JSON-RPC 与客户端通信,支持只读工具、可选开启的远程执行工具,以及可浏览的资源接口,便于 AI 助手对服务器进行查询、检索和执行操作。

AI与计算

Better i18n MCP 服务器套件

基于 Model Context Protocol(MCP)的后端服务集合,提供标准化的资源分发、工具注册与执行、以及可渲染的 Prompt 模板等能力,支持通过 JSON-RPC 与 LLM 客户端交互。仓库包含两个独立的 MCP 服务实现:一个专注于翻译资源与语言管理的核心 MCP 服务(mcp),以及一个面向内容管理的 MCP 服务(mcp-content),并提供多种传输协议支持(如标准输入输出、HTTP、WebSocket/SSE 等),用于为 AI Agent 提供上下文信息和功能能力。该实现包括服务端设施、工具注册、版本检查、以及面向不同传输通道的服务器骨架,能够在真实场景中被客户端集成调用。

AI与计算

obsidian-notes-rag MCP 服务器

一个基于 Model Context Protocol 的 MCP 服务器实现,提供 Obsidian 笔记的语义搜索、上下文获取和相关工具调用接口,方便将笔记上下文集成到任意 AI 助手对话中。

AI与计算

Thought Logger MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对本地钥日志、屏幕截图及相关资源的访问、工具注册与执行能力,并通过 HTTP 传输实现与客户端(如 Claude Desktop 等 LLM 客户端)的 JSON-RPC 通信。

AI与计算

MsgVault MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,向 MCP 客户端以标准化的 JSON-RPC 方式提供对离线邮件存档的上下文信息、资源访问、工具执行以及提示模板渲染等能力,便于与 Claude Desktop 等 MCP 客户端进行深度集成与对话式分析。该实现包含服务器端代码、会话管理与资源查询逻辑,支持通过多种传输通道与安全的本地部署方式进行扩展使用。

桌面与硬件

WPS Office MCP 服务器

基于 Model Context Protocol 的本地 MCP 服务器实现,提供统一的资源、工具和提示模板的托管与数据访问能力,并通过 JSON-RPC 与 LLM 客户端通信,为 WPS Office 提供可扩展的上下文服务。

AI与计算

VMark MCP 服务器

基于 Model Context Protocol 的完整 MCP 服务器实现,提供资源管理、工具执行、以及与 LLM 客户端的 JSON-RPC 风格通信,支持多种传输路径与本地侧车集成。

AI与计算

DeFi Rates MCP 服务器

基于 MCP 的后端服务器,向 LLM 客户端提供实时 DeFi 借贷利率数据、Earn 市场数据以及通过工具调用实现数据查询、比较与策略计算的能力,并支持与 Claude Desktop 等 MCP 客户端的集成与通信。

商业系统

OpenAlgo MCP 交易服务

OpenAlgo MCP 交易服务是为 AI 助手设计的后端,通过标准协议将量化交易平台功能和市场数据工具提供给 LLM 客户端,实现智能交易和资产管理。

生产力应用

Obsidian CLI MCP 服务器

为 Obsidian 笔记库提供上下文管理和工具调用能力的 MCP 服务器,方便 AI 助手集成。

AI与计算

Limitless AI MCP 服务器

将 Limitless AI Pendant 录音集成到 AI 助手的 MCP 服务器。

商业系统

Intercom MCP 服务器

连接 Intercom 客户支持数据与 AI 助手,提供对话和工单的标准化查询接口。