返回首页

"本地服务" 标签

45 个结果

标签搜索结果

AI与计算

EPLAN MCP 服务器 - 模型上下文协作后端

基于 Model Context Protocol (MCP) 的后端服务器,实现对 EPLAN 自动化的资源、工具和提示模板的托管与执行。通过 JSON-RPC 风格的 MCP 接口与客户端通信,支持多种传输协议(StdIO、SSE、HTTP),为 LLM 客户端提供安全、可扩展的上下文服务与工具执行能力。

网页与API

NavAgent-MCP 服务器

基于 Model Context Protocol 的超轻量 MCP 服务器,提供网页资源托管、工具执行及提示模板渲染等能力;通过 stdio 与 MCP 客户端通信,并通过本地 WebSocket 桥接实现与 Chrome 扩展的网页上下文访问与操作。

AI与计算

Paprika MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,为 LLM 客户端提供 Paprika Recipe Manager 的数据资源、可执行工具以及提示模板,通过 JSON-RPC 与客户端通信。

开发者工具

Rainy Updates MCP 服务端

基于 MCP(Model Context Protocol)的本地后端服务器,实现 Resources、Tools、Prompts 的注册、托管与渲染,并通过 JSON-RPC 与客户端(如 Claude Desktop、Cursor 等 MCP 客户端)进行上下文信息和功能的访问与协作,支持多传输协议(stdio、HTTP 等)以实现对 LLM 的上下文服务。

AI与计算

Claude Code Docs MCP Server

基于模型上下文协议(MCP)的后端服务器实现,提供用于 Claude Code 文档查询的工具集,并通过 JSON-RPC 风格请求/响应与客户端进行交互,具备可运行的服务端能力和简单的资源/工具暴露能力。

AI与计算

Rainy Updates 本地模型上下文服务器

基于 Model Context Protocol 的本地后端服务器,向大语言模型客户端提供统一的资源管理、工具注册与执行、以及可定制的提示模板渲染,全部通过 JSON-RPC 与客户端通信,支持多种传输通道以实现安全、可扩展的上下文服务。

AI与计算

onUI MCP 服务器端实现

基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,提供资源、工具、提示模板等上下文相关能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持多种传输方式,便于在本地搭建可扩展的上下文服务。

AI与计算

Analyze Coverage MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,将 LCOV 覆盖率数据以标准化的 JSON-RPC 工具形式暴露给 LLM 客户端,提供覆盖统计、未覆盖区域查询与带注释源码等能力,便于 AI 辅助分析和引导测试工作。

桌面与硬件

OculOS MCP 服务器

基于 Model Context Protocol(MCP)的后端实现,为 AI 客户端提供资源、工具调用能力与提示模板渲染等上下文服务;通过 JSON-RPC 2.0 以换行分隔的文本协议在标准输入输出(STDIN/STDOUT)上与客户端通信,支持对桌面应用的自动化控制与上下文信息管理。

AI与计算

WebAI-MCP

基于模型上下文协议(MCP)的本地后端服务器,向大语言模型客户端提供结构化的浏览器上下文、工具和提示模板,并通过 JSON-RPC 进行通信。实现了资源、工具、提示模板的托管、注册与渲染,以及会话管理和跨传输协议的支持,适用于在本地环境中为 LLM 客户端提供可扩展的上下文服务。

开发者工具

Aegis MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供对本地 Aegis Agent Kit 的 MCP 接口,允许对实例管理、秘密、工具调用等功能进行统一的 JSON-RPC 访问,并与本地 aegisd/Aegis 运行时无缝协作以驱动 LLM 客户端的上下文能力获取与任务执行。

网页与API

Claudezilla MCP 服务器

基于 Model Context Protocol 的本地 MCP 后端,为 Claude Code 提供浏览器自动化的资源、工具与提示模板服务。通过本地 Unix 套接字与原生主机通信,支持 JSON-RPC 的工具调用与响应,并实现会话管理、扩展工具集、以及多传输协议的通信能力,适用于在本地 Firefox 环境中为 LLM 客户端提供上下文信息与功能。

AI与计算

MemOS MCP 服务端

基于 Model Context Protocol (MCP) 的本地后端实现,提供资源(Resources)托管与管理、工具(Tools)注册与执行、Prompt 模板的定义与渲染,并通过 JSON-RPC 的 MCP 协议与客户端通信,当前实现以 STDIO 传输为主,支持后续扩展的传输协议。

AI与计算

Loom MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册/执行、以及提示模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持本地或混合模型的上下文服务和执行能力。该仓库包含可运行的服务器端实现及相关集成组件,不仅是客户端示例或测试代码。

AI与计算

BrowserForce MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具与提示模板的统一访问与管理,并通过本地 Relay 与在浏览器中的扩展组件协同工作,供 MCP 客户端(如 OpenClaw、Claude、Codex、Cursor 等)调用,实现对浏览器上下文的标准化上下文服务。该实现包含一个实际可运行的 MCP 服务器、插件加载机制、工具定义(execute、reset)以及与扩展/浏览器的交互逻辑。

AI与计算

tome MCP 服务器

基于 Tome 实现的 Model Context Protocol (MCP) 服务器,实现对技能库的查询与读取能力。服务器通过 JSON-RPC 规范在标准输入输出(STDIO)通道上与 MCP 客户端通信,提供 list_skills 列出所有技能、read_skill 读取指定技能的 SKILL.md 内容等功能,支持在配置中自动发现技能、将技能暴露给 LLM 客户端使用,并确保路径安全边界与版本兼容性。

AI与计算

OpenContext MCP 服务器

基于 Model Context Protocol (MCP) 的本地化后端服务器,提供对资源(Memory/Context)、工具以及提示模板的托管、注册、执行与渲染,并通过 JSON-RPC 与 LLM 客户端进行交互,支持本地存储、会话管理以及多种传输方式。

AI与计算

TabOrg MCP Server

基于 Model Context Protocol (MCP) 的本地服务器实现,提供对浏览器标签、分组、窗口等资源的访问、工具的注册与执行,以及提示模板的定义与渲染,供外部大语言模型(LLM)客户端通过 JSON-RPC 进行上下文查询、操作与交互。

AI与计算

Claude AI Music Skills State MCP 服务器

基于模型上下文协议(MCP)的后端服务器,提供音乐项目的状态数据访问、资源查询、工具调用和会话管理,并通过 JSON-RPC 以标准化方式与 LLM 客户端通信,支持本地资源、专辑、轨道、想法等数据的读取、更新与重建。

AI与计算

Thought Logger MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对本地钥日志、屏幕截图及相关资源的访问、工具注册与执行能力,并通过 HTTP 传输实现与客户端(如 Claude Desktop 等 LLM 客户端)的 JSON-RPC 通信。

AI与计算

DeepSeek MCP 服务器(StdIO 通信实现)

基于 Model Context Protocol(MCP)的本地 MCP 服务器实现,提供对 Tools、Resources、Prompts 的标准化暴露,并通过 JSON-RPC 形式与客户端通信,支持通过标准输入输出(STDIN/STDOUT)进行请求与响应。

AI与计算

AnkiMCP Server Addon

在 Anki 内部运行的 MCP(Model Context Protocol)服务器端实现,暴露资源、工具与提示模板给本地 AI 客户端,通过本地 JSON-RPC 形式的协议进行资源读取、工具调用与提示渲染,支持跨主线程的安全调用与本地化部署。

AI与计算

Semantic Scholar MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端,提供对 Semantic Scholar 的论文、作者等信息的资源、工具和提示模板的管理与渲染,通过 JSON-RPC 与客户端进行通信,支持多工具调用、批量检索与健康检查等核心功能。

桌面与硬件

WPS Office MCP 服务器

基于 Model Context Protocol 的本地 MCP 服务器实现,提供统一的资源、工具和提示模板的托管与数据访问能力,并通过 JSON-RPC 与 LLM 客户端通信,为 WPS Office 提供可扩展的上下文服务。

AI与计算

Codex MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板的渲染,使用 JSON-RPC 与 MCP 客户端通信,支持通过 Stdio 传输等多种通道进行上下文服务交互。

AI与计算

Planet MCP Server

基于 Model Context Protocol 的本地 MCP 服务器实现,提供对 Planet API 的上下文访问、工具调用与提示渲染能力,帮助大语言模型在本地环境中高效地与 Planet 数据和功能交互。

通信与社交

discord-py-self-mcp

基于 Model Context Protocol 的 MCP 服务器实现,用于将一个 Discord 自助账户的资源、工具与对话模板通过标准化的 MCP JSON‑RPC 后端对接到 LLM 客户端,支持 stdio 传输并以 JSON-RPC 提供资源、工具执行与提示渲染等功能。

AI与计算

cc-switch MCP 服务器端实现

基于 Model Context Protocol(MCP)的本地后端,作为后台服务端组件,统一管理资源、工具与提示词等上下文相关对象,支持多应用场景(Claude、Codex、Gemini)在本地进行 MCP 服务器的创建、导入、配置与同步,并通过数据库作为单一数据源实现 SSOT,帮助本地 LLM 客户端获得一致的上下文服务能力与快速切换能力。

AI与计算

Polar MCP 服务器桥接

基于模型上下文协议(MCP)的服务器实现组件,作为 Polar 电子应用的一部分,提供工具定义查询、工具执行与健康检查等核心接口,通过 HTTP 端点与客户端通信,并通过 Electron 渲染进程 IPC 与后台工具 definition/执行能力对接,从而向 LLM 客户端暴露资源、工具与提示渲染能力。

AI与计算

MCP-CLI-Go 本地 MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具和提示模板的管理与执行,支持通过 JSON-RPC 与 MCP 客户端通信,并具备标准化的服务器端会话管理和多传输模式能力(如 StdIO)。

生产力应用

Simona Todo MCP Server

Simona AI助手项目中的一个简单的Todo MCP服务器示例,提供基本的待办事项管理功能,可以通过MCP协议与LLM客户端进行交互。

网页与API

本地RAG网页搜索MCP服务器

一个本地运行的MCP服务器,提供基于RAG(检索增强生成)的网页搜索工具,帮助LLM获取最新信息。

桌面与硬件

Botanika Desktop MCP服务器

Botanika Desktop内置MCP服务器,为本地LLM客户端提供工具和上下文服务,支持Google搜索、Spotify等功能集成。

生产力应用

MCP任务管理器服务器

基于MCP协议的任务管理服务器,使用SQLite存储,提供项目和任务的创建、查询、更新等工具接口。

数据库与文件

Obsidian MCP Server

Obsidian MCP Server 插件在本地运行一个MCP服务器,通过标准接口连接AI助手等外部应用,实现对Obsidian Vault的访问和操作。

开发者工具

MCP Connect - 云端桥接器

MCP Connect 桥接云端应用与本地 Stdio MCP 服务器,实现 HTTP/HTTPS 到 Stdio 协议的转换,安全便捷地扩展本地 MCP 能力至云端。

桌面与硬件

本地MCP工具服务器

基于MCP协议构建,提供天气查询、谷歌搜索和摄像头控制等本地工具服务的MCP服务器实现。

桌面与硬件

MoLing 魔灵 MCP 服务器

MoLing (魔灵) 是一个轻量级、易于部署的本地MCP服务器,旨在通过操作系统API扩展LLM能力,提供文件系统访问、命令行执行和浏览器控制等功能,无需复杂配置,即装即用。

网页与API

简易天气MCP服务器示例

一个本地运行的MCP服务器示例,提供城市天气查询工具。

桌面与硬件

Cue - AI 个人助理 (macOS MCP 服务器)

Cue macOS 应用内置 MCP 服务器,为本地 AI Agent 提供上下文管理、工具注册和 Prompt 模板服务,支持模型环境配置和工具集成。

生产力应用

obsidian mcp rest

Obsidian MCP REST Server 是一个 MCP 服务器实现,允许 AI 助手通过标准化的 MCP 协议访问和管理本地 Obsidian 知识库,实现笔记的读取、写入、搜索和元数据获取等功能。

网页与API

gotta eat

基于MCP协议实现的餐厅搜索和预订助手,通过工具集成Resy API和视频搜索功能,为LLM客户端提供餐厅上下文信息和操作能力。

生产力应用

convex mcp server

convex-mcp-server 是一个基于 Model Context Protocol (MCP) 的服务器实现,提供笔记管理功能,允许LLM客户端通过资源访问和工具调用来管理和创建文本笔记。

数据库与文件

MySQL Database

MySQL MCP 本地数据库服务是一个轻量级应用,通过 MCP 协议为 LLM 提供本地 MySQL 数据库的访问能力,支持查询执行、表结构获取等功能。

数据库与文件

File Deletion

一个简单的MCP服务器,为AI助手提供文件删除能力,支持安全地删除本地文件,增强AI的文件管理功能。