标签搜索结果
基于 Model Context Protocol(MCP)的一套后端服务器实现,向大语言模型客户端提供项目上下文资源、可用工具以及可渲染的提示模板,支持自动发现 AI_README.md、注册并执行工具、以及通过 JSON-RPC 与客户端通信的完整后端能力。
一个基于Azure Functions和MCP协议的服务器,提供多种编程语言和框架的权威最佳实践指南。
通过 Model Context Protocol (MCP),将 Protocol Buffer 文件规范检查与修复能力暴露给 LLM 客户端。
标准化AI辅助开发工作流,为LLM提供结构化的代码规范、Prompt模板和上下文信息。
一个专注于 Go 语言的 MCP 服务器,提供 Go 代码生成和风格指南工具,提升 LLM 的 Go 语言编程能力。
该MCP服务器提供代码规范和最佳实践,支持Java、Python和React等技术栈,通过Tool接口向LLM客户端提供编码规范查询能力。