基于 Model Context Protocol (MCP) 的服务器实现,提供标准化的资源、工具和 Prompt 管理,并通过 JSON-RPC 与 LLM 客户端进行交互;实现对 MCP 操作的 AI 可调用工具化暴露、会话管理以及多传输协议支持(如 Stdio/SSE/WebSocket),用于在 Solana 上构建隐私保护的 AI 任务协作后端。
基于 Model Context Protocol (MCP) 的后端服务器,标准化向大语言模型客户端提供新闻资源、工具和提示模板,支持本地 stdio 与 HTTP/SSE 传输,以实现实时上下文和外部功能的访问。
基于MCP协议,为AI应用提供与Linear issue追踪系统集成的工具服务,扩展LLM的功能。
Ollama MCP Server是一个桥接Ollama和MCP协议的工具,允许MCP客户端通过标准化的方式调用本地Ollama LLM模型,进行模型管理、运行和OpenAI兼容的聊天补全。