返回首页

"资源读取" 标签

2 个结果

标签搜索结果

AI与计算

Telegram-Bridge-MCP

基于 Model Context Protocol 的后端服务器,实现通过 JSON-RPC 向 LLM 客户端提供上下文与功能:托管资源、注册工具、定义与渲染提示模板,并通过多传输协议(如_stdio、SSE、WebSocket)与 Telegram 机器人实现双向通信与上下文服务。

AI与计算

Dooray MCP Server

基于 Model Context Protocol (MCP) 的 Dooray MCP 服务器实现,向大型语言模型客户端以标准化方式提供上下文信息与功能。核心能力包括托管与管理资源(Resources)、注册并执行工具(Tools)、定义与渲染提示模板(Prompts),并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket)的扩展能力。