返回首页

"AI 上下文" 标签

4 个结果

标签搜索结果

AI与计算

VirtualTabs MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,为 LLM 客户端提供对 VirtualTabs 的资源、工具、提示模板等能力的标准化访问与管理接口,支持根路径配置、日志级别控制、以及多种传输方式(如 STDIO),实现对虚拟工作区分组与 AI 交互上下文的后端服务。

网页与API

Open Meteo MCP Server (Java)

基于 Model Context Protocol 的 MCP 服务器实现,使用 Java/Spring Boot 提供资源管理、工具调用和提示模板渲染,支持 REST/SSE/Chat 等接口,面向 LLM 客户端的上下文服务与功能暴露。

AI与计算

Overseerr MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供 Overseerr 集成的上下文信息、工具和提示模板,通过 JSON-RPC 进行通信,并支持 STDIO、SSE/HTTP 等传输通道,便于在 AI 应用中进行资源检索、请求管理与媒体详情查询等功能的上下文服务。

网页与API

SearchAPI.site MCP 服务器

通过 SearchAPI.site 将 AI 连接到 Google、Bing、YouTube 等外部搜索服务,提供上下文和工具能力。