返回首页

"流式输出" 标签

4 个结果

标签搜索结果

AI与计算

Gemini MCP 服务端(Rust 实现)

基于 Model Context Protocol (MCP) 的 JSON-RPC 2.0 服务器实现,提供资源管理、工具调用与上下文提示渲染,作为 Claude Code 等客户端的后端上下文服务,采用标准输入输出传输进行通信。

AI与计算

ARCH MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,负责对接 LLM 客户端,提供工具、消息传递、项目上下文、以及可选的 GitHub 集成等上下文服务,支持多种传输与并发场景(如 SSE、WebSocket、StdIO 等)并通过 JSON-RPC/SSE 与客户端通信。

AI与计算

Claude Agent SDK MCP 服务端扩展

基于 Claude Agent SDK 的在进程内 MCP 服务器实现。该扩展通过 pi 主机加载自定义工具并将其以 MCP 服务器的形式暴露给 LLM 客户端,允许 LLM 调用工具、读取资源、渲染并扩展 Prompt,工具在 pi 环境中执行,输出流式更新和结果渲染。

AI与计算

CloudBase MCP Mini Manus 服务器

基于 Model Context Protocol 的 MCP 服务器端实现,提供资源、工具与示例性提示模板等能力,支持通过 JSON-RPC 与客户端通信,且实现了通过不同传输协议(如 SSE/HTTP)进行交互的服务器端逻辑。