返回首页

"跨模型协作" 标签

3 个结果

标签搜索结果

AI与计算

Multi-CLI MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供跨多 AI 客户端的工具、提示与潜在资源上下文服务,支持 JSON-RPC 请求/响应、会话管理以及标准传输(如 STDIO)。

AI与计算

Forge MCP 服务器实现

基于 Forge 平台的 MCP(Model Context Protocol)后端实现,提供资源管理、工具注册与执行、Prompt 模板渲染等核心能力,通过 JSON-RPC 与多传输协议(如标准输入输出、Server-Sent Events、WebSocket)对接 LLM 客户端,实现跨会话的上下文服务与能力声明。

网页与API

Co-Op MCP 服务端

基于 MCP(Model Context Protocol)的后端服务器实现,提供资源管理、工具执行与上下文提示渲染等能力,支持 LLM 客户端以标准化的 JSON-RPC/HTTP 方式进行通信与协作。