返回首页

"本地开发" 标签

10 个结果

标签搜索结果

AI与计算

Apple Container MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、以及提示模板相关能力,桥接 macOS 本地容器命令行(通过 container CLI)与大语言模型客户端,支持 JSON-RPC 形式的请求/响应和多种传输方式。

AI与计算

tack-mcp 服务端

基于 Model Context Protocol (MCP) 的服务器实现,向 LLM 客户端以标准化方式暴露上下文资源、可执行工具与提示模板,并通过 JSON-RPC 形式进行交互,支持会话管理与多种传输通道的对接(当前实现以 STDIO 传输为主)。

AI与计算

TalkTo MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 LLM 客户端以标准化方式提供资源、工具和提示等上下文服务,并通过 JSON-RPC 与客户端通信,支持多 provider 路由与会话管理。

桌面与硬件

Blogging Desktop Server (bDS) - MCP Backend

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具管理、提示模板渲染,以及与 LLM 客户端之间的 JSON-RPC 通信,支持多传输方式(包括 Standalone 的 stdio 服务器),并可自动配置到多种代理/模型工具。

AI与计算

CodeStat 面向模型上下文的后端服务

基于 Model Context Protocol 的本地 MCP 风格后端,提供工具注册与执行、编辑前后代码对比、会话级别指标计算,以及本地数据库存储和数据备份等完整功能的服务器实现。

AI与计算

Ohno-MCP-服务器

基于模型上下文协议(Model Context Protocol, MCP)的后端服务器实现,提供任务看板数据、工具方法以及提示模板等上下文能力,面向大语言模型客户端以 JSON-RPC 方式交互。支持本地化存储、可扩展的工具集合以及基于 MCP 的工具执行与上下文渲染能力。

开发者工具

Gemini CLI Apps Script沙盒MCP服务

为Gemini CLI提供安全的Google Apps Script沙盒执行环境,实现本地开发与会话式自动化。

开发者工具

MCP Server Starter Kit

基于 Model Context Protocol 的服务器启动器,帮助开发者快速搭建本地 MCP 服务器,集成自定义工具,为 AI 助手提供上下文服务。

开发者工具

WithSeismic MCP Server

生产就绪的MCP服务器模板,用于托管AI工具和Prompt,支持远程和本地模式。

开发者工具

Local Development Environment Manager

该项目是一个MCP服务器,旨在为LLM客户端提供本地开发环境管理能力,支持AI自动化配置和管理开发环境。