返回首页

"GitHub 集成" 标签

10 个结果

标签搜索结果

AI与计算

GitHub Stars MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,用于对「GitHub 收藏仓库」进行自然语言查询,提供工具注册、资源管理与提示模板渲染等能力,并通过 MCP 协议对接 AI 客户端。该服务器以 Cloudflare Worker 形式运行,支持 API 访问与 AutoRAG 索引查询。

AI与计算

Runa 自我进化 MCP 服务器

基于 Model Context Protocol (MCP) 的自我进化 MCP 服务器实现。该仓库提供一个可运行的 MCP 服务器(名为 RunaMCP),内置动态工具注册、代码读取/生成与 GitHub 集成等功能,目标是在 MCP 客户端通过 JSON-RPC 与其进行资源管理、工具执行和提示渲染等交互。该服务器可与自带的客户端实现协同工作,在集成目录中自动发现并管理工具脚本,支持在运行时扩展能力。

AI与计算

ARCH MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,负责对接 LLM 客户端,提供工具、消息传递、项目上下文、以及可选的 GitHub 集成等上下文服务,支持多种传输与并发场景(如 SSE、WebSocket、StdIO 等)并通过 JSON-RPC/SSE 与客户端通信。

开发者工具

FeathersJS MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端以统一的 JSON-RPC 方式提供资源管理、工具执行与提示模板渲染等能力,便于搭建可扩展的上下文服务体系。

网页与API

Ignis 文档型 MCP 服务器

基于 Model Context Protocol (MCP) 的文档型上下文服务服务器,提供文档资源、代码/文档工具,以及可渲染的提示与模板,面向大语言模型客户端以 JSON-RPC 的方式获取资源、调用工具、获取文档内容等能力。

网页与API

Agent Framework MCP Server 集合

基于 Model Context Protocol (MCP) 的后端服务实现,为大型语言模型客户端提供统一的上下文资源、工具调用和提示模板渲染能力,并通过 JSON-RPC 进行通信,支持多服务器协作(如 JIRA、GitHub 及任务队列等)。

AI与计算

QuickCall Integrations MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型客户端以标准化方式提供资源、工具和提示模板的访问与执行能力,支持身份认证、GitHub/Slack 集成、资源读取以及多种传输协议的上下文服务。

开发者工具

auto-fix-workflow

基于 Model Context Protocol (MCP) 的后端服务器,为 MCP 客户端(如 LLM)提供统一的上下文资源、工具执行和提示模板渲染能力,用于自动化的 GitHub 问题管理、代码修复工作流,并支持多种传输协议与会话能力。

AI与计算

mcp-server-git

基于 Model Context Protocol(MCP)的后端服务,用于Git仓库资源的托管、工具注册/执行以及Prompt模板渲染,供LLM客户端通过JSON-RPC进行上下文服务交互。支持会话管理、能力声明,以及多传输协议(如 StdIO、SSE、WebSocket)等扩展能力,并提供Lean MCP接口以降低上下文消耗,便于在不同场景下与LLM进行高效交互与功能扩展。

网页与API

GitHub MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,提供对 GitHub 的上下文资源、工具执行与提示模板的标准化访问,支持 JSON-RPC 交互,适配多种传输方式并具备会话管理、能力声明与远程工具发现等能力,用于为大语言模型提供可扩展的上下文服务。