标签搜索结果
为LLM客户端提供代码库知识管理服务的MCP服务器,实现代码上下文、决策、模式和经验的捕获与检索。
基于 Model Context Protocol (MCP),为 LLM 提供访问 Dremio 数据和功能的标准化服务。
一个连接VSCode与AI助手的MCP服务器,提供VSCode环境上下文和文件系统操作能力,增强AI在软件开发辅助方面的能力。
基于MCP协议的服务器,提供代码分析和专家评审工具,利用Gemini模型并支持文件上下文。
智能上下文MCP服务器,根据用户情境动态选择和编排工具,集成Gemini API,支持复杂工作流,为LLM提供上下文服务。
MPT 是一款支持多LLM模型并行查询的工具,并可作为MCP服务器为LLM客户端提供统一接口,实现资源、工具和Prompt模板的管理。
为LLM客户端提供基于Lara Translate API的文本翻译工具的MCP服务器。
连接 ActivityWatch 时间追踪数据到 LLM,通过 MCP 协议为 AI 提供上下文感知能力。
基于模型上下文协议(MCP)的屏幕截图服务器,提供屏幕和窗口枚举以及截图功能,使LLM能够获取屏幕内容。
集成平台管理门户中的MCP服务器实现,通过工具向LLM客户端提供平台监控和管理能力。
为AI编码工具提供Figma设计文件的上下文信息,使其能更好地理解和生成代码。
此仓库实现了一个MCP服务器,用于将Gmail和Google日历集成到Claude Desktop,提供邮件和日历的上下文感知交互能力。
Home Assistant Model Context Protocol集成在家庭助理中实现MCP服务器,通过WebSocket为LLM客户端提供Home Assistant的功能调用和Prompt服务。
该项目是一个实验性的MCP服务器,集成了内存和Brave搜索工具,旨在通过Model Context Protocol增强AI IDE的上下文感知能力。
MCP Obsidian服务器将Obsidian知识库与LLM连接,提供笔记搜索、读取和写入工具,增强LLM的上下文感知能力。
Enhanced SSH 仓库提供基于MCP协议的增强型SSH服务器和工具集合,支持安全远程命令执行、上下文感知工具调用和统一上下文管理,为LLM应用提供可扩展的后端服务框架。