标签搜索结果
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具与提示模板的标准化上下文服务,采用 JSON-RPC 风格通信,通过 Cloudflare Durable Objects 进行跨设备房间中继,支持资源访问、工具执行与提示渲染,适用于为 LLM 客户端提供可扩展的上下文服务。
基于 Linear.app 本地缓存的只读 MCP 服务器,向 LLM 客户端以标准化方式提供 Issue/团队/项目等上下文数据,便于离线或快速读取线索信息。
基于 Model Context Protocol (MCP) 的本地后端服务器,提供 Workflowy 数据的资源托管、工具执行和提示模板渲染,供大语言模型客户端以 JSON-RPC 的方式读取和操作本地数据。