返回首页

"模型集成" 标签

8 个结果

标签搜索结果

AI与计算

Video Avatars MCP 服务端

本仓库实现了一个基于 Model Context Protocol(MCP)的后端服务器,用于向大语言模型(LLM)客户端以标准化方式提供上下文信息、资源、工具和提示模板的管理与执行能力。通过 JSON-RPC 与客户端通信,服务器支持资源/工具的注册与执行、提示模板渲染以及会话管理,底层可通过多种传输协议(如 HTTP)与前端或代理进行对接,适合在云环境中提供可扩展的上下文服务。

AI与计算

claude-code-multi-llm MCP 服务端

基于 Model Context Protocol 的后端服务,实现资源、工具注册与执行、提示模板渲染等 MCP 核心能力,负责对接多模型提供商并通过中文/英文提示进行成本感知路由,将子任务分发给最合适的模型以提升 Claude Code 场景的效率与成本控制。

AI与计算

MemoryLane MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的管理、以及 Prompt 模板的定义与渲染,向 LLM 客户端按标准化 JSON-RPC 方式提供上下文信息与功能。通过 STDIO 传输、可扩展传输等能力,支持对本地活动历史的上下文服务。

AI与计算

Gemini MCP 服务器

基于 Model Context Protocol (MCP) 的 Gemini 模型后端实现,提供资源、工具和提示模板的上下文服务,通过 JSON-RPC 与客户端通信,并以 stdio 传输实现 MCP 服务器。

AI与计算

Spring AI MCP 服务器实现

基于 Model Context Protocol (MCP) 的服务器端实现,提供工具注册、资源管理与提示模板渲染等核心能力,并通过标准化的 JSON-RPC/_stdio 传输与 MCP 客户端通信,支持多种传输方式(如 Stdio、SSE)。仓库中包含可运行的 MCP 服务器代码(mcp-server 模块),以及对接客户端的示例与配置工具。

开发者工具

LLM Orchestra MCP 服务器

一个多智能体LLM编排系统,通过MCP协议向客户端提供完整的AI协作能力

AI与计算

MCP-FMI:FMI模型集成服务器

通过MCP将FMI仿真模型集成到LLM应用,作为可调用的工具。

AI与计算

Popmelt MCP服务器

基于Model Context Protocol的参考实现,提供个性化AI交互的上下文管理和模型集成服务。