返回首页

"人工智能协作" 标签

2 个结果

标签搜索结果

AI与计算

Plandb MCP 服务端

基于 Model Context Protocol (MCP) 的 Rust 实现,作为后端服务器提供以标准化方式向 LLM 客户端暴露上下文、资源、工具与 Prompt 的能力。通过 STDIO JSON-RPC 提供 MCP 服务器核心功能,支持会话管理、能力声明和工具调用等,并集成 CLI、HTTP 等多接口入口,便于在本地或嵌入式环境中实现多模型协作场景下的任务上下文服务。

AI与计算

TaskFlow MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,面向大模型客户端提供任务管理、资源访问、工具调用与提示渲染等能力,并通过 JSON-RPC/传输协议与客户端进行交互,支持会话记忆与多用户隔离。该仓库实现了完整的 MCP 服务端组件与工具集,能够作为 AI 应用的上下文和能力服务入口。