返回首页

"AI 辅助" 标签

10 个结果

标签搜索结果

AI与计算

ez-xbow-platform-mcp

基于 Model Context Protocol(MCP)的后端服务器,向大语言模型客户端以标准化方式提供赛题资源、工具执行和提示模板等上下文服务,支持多种传输方式并可通过本地/远程 mock 平台进行测试。

AI与计算

Chronicle Memory MCP 服务器

基于 MCP 协议实现的本地内存管理服务器,用于存储、检索和管理长期记忆,供 LLM 客户端通过 JSON-RPC 调用访问和扩展上下文信息。

网页与API

Huppa MCP 服务端(huppa-cli)

基于 Model Context Protocol(MCP)的后端实现,为 Huppa 提供 gym 课程查询、预订、等待名单、会员信息等资源的统一访问与工具执行能力,供大型语言模型(LLM)通过 MCP 进行上下文获取和任务执行。

AI与计算

MCP 数据库后端服务器(MCP Server for Multi-Database Connector)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具和提示模板的统一管理与渲染,并通过 JSON-RPC/REST API 与客户端通信。该仓库实现了支持多数据库连接(SQL Server 与 PostgreSQL)、工具注册与执行、提示模板及上下文管理的完整后端,具备 STDIO 与 HTTP/API 传输模式、会话管理、缓存、并发查询等核心能力,适用于向大语言模型(LLM)客户端提供统一的上下文服务。

AI与计算

MuseScore MCP Server

基于 Model Context Protocol 的 MuseScore 集成后端服务,向大型语言模型客户端提供对 MuseScore 的实时控制、资源访问和批量操作工具,通过 WebSocket 插件与 MuseScore 通信,使用 MCP 协议以标准化的 JSON-RPC 形式进行请求/响应。

AI与计算

lctx MCP 服务器

基于 Model Context Protocol (MCP) 的本地上下文后端,提供资源管理、工具注册和提示模板渲染等能力,并通过 JSON-RPC 与客户端通信,支持 stdio 等传输方式。}

AI与计算

MCP-Plugin-dotnet 服务器端(Bridge 版)

基于 Model Context Protocol (MCP) 的.NET 实现,提供 Tools、Prompts、Resources 的注册与执行,并通过 SignalR 进行与 MCP 客户端的双向通信,支持多传输模式(stdio、http),实现会话管理、能力声明和扩展的 JSON 序列化配置,适合作为本地应用的 MCP 服务器桥接层。

开发者工具

VS Code Debugger MCP

通过MCP协议使AI代理与VS Code调试功能互动。

开发者工具

Git Commit Aider MCP Server

一个MCP服务器,提供工具辅助AI生成符合规范的Git提交信息,并记录AI在代码库中的贡献。

桌面与硬件

DaVinci Resolve MCP 服务器

DaVinci Resolve MCP Server 是一个基于 Model Context Protocol 的服务器,旨在为 LLM 提供访问和控制 DaVinci Resolve 视频编辑软件的能力,实现 AI 辅助视频编辑工作流。