返回首页

"模型路由" 标签

5 个结果

标签搜索结果

AI与计算

consult-llm-mcp

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册/执行和Prompt模板渲染,并通过 JSON-RPC 与客户端通信,支持多轮对话与多传输协议(如 STDIO、SSE、WebSocket)。

AI与计算

claude-code-multi-llm MCP 服务端

基于 Model Context Protocol 的后端服务,实现资源、工具注册与执行、提示模板渲染等 MCP 核心能力,负责对接多模型提供商并通过中文/英文提示进行成本感知路由,将子任务分发给最合适的模型以提升 Claude Code 场景的效率与成本控制。

AI与计算

Msty Admin MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器,实现资源、工具、提示模板等上下文服务,并通过 JSON-RPC 与 Claude Desktop 等客户端交互,提供可扩展的上下文管理能力。

AI与计算

推理网关 (Inference Gateway)

一个功能强大的LLM代理服务器,统一访问多种语言模型API,并无缝集成和暴露来自Model Context Protocol (MCP) 服务器的工具与上下文能力。

AI与计算

LOTUS-MCP 示例服务器

LOTUS-MCP 是一个用于演示 Model Context Protocol (MCP) 服务器概念的示例项目,它展示了如何集成 Mistral 和 Gemini 模型,并提供统一的请求处理流程。