返回首页

"资源与工具" 标签

5 个结果

标签搜索结果

AI与计算

Agentlytics MCP Relay Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供跨用户会话的资源、工具与提示模板等上下文服务,并通过 Relay 数据库实现多用户场景的查询与共享,采用 JSON-RPC/SSE 的通信方式对接 LLM 客户端。

AI与计算

CodeFire MCP 服务器

基于 Model Context Protocol(MCP)的本地化后端服务,使用 SQLite 持久化存储并通过 stdio 进行 JSON-RPC 通信,向 LLM 客户端提供资源、工具和提示模板等能力,便于在本地环境中为 AI 编码代理提供上下文与功能。

AI与计算

VirtualTabs MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,为 LLM 客户端提供对 VirtualTabs 的资源、工具、提示模板等能力的标准化访问与管理接口,支持根路径配置、日志级别控制、以及多种传输方式(如 STDIO),实现对虚拟工作区分组与 AI 交互上下文的后端服务。

AI与计算

AgentGate MCP 服务端

基于模型上下文协议(MCP)的后端实现,提供资源、工具和提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端通信,支持流式传输与子进程传输,并能与 Claude Desktop 等 MCP 客户端无缝对接。

开发者工具

Pwsh-Repl MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供持久化 PowerShell 会话、资源管理与工具执行,供大型语言模型(LLM)客户端通过 JSON-RPC 访问上下文数据和可执行功能。