基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具与提示模板的标准化上下文服务,能够与 AOG(AI Open Gateway)后端通过 JSON-RPC 风格交互,支持多种传输方式并具备插件化能力。
Aplicação que utiliza protocolo MCP para integrar um LLM (Ollama) na busca e apresentação de dados de veículos de um banco SQLite.
该项目实现了基于MCP协议的服务器,通过Ollama集成本地LLM,以自然语言控制Unity编辑器,实现自动化工作流程。
Ollama MCP Server是一个桥接Ollama和MCP协议的工具,允许MCP客户端通过标准化的方式调用本地Ollama LLM模型,进行模型管理、运行和OpenAI兼容的聊天补全。