返回首页

"AI 上下文服务" 标签

7 个结果

标签搜索结果

网页与API

AnyAPI-MCP-Server

基于 Model Context Protocol 的通用后端服务器,将任意 REST/OpenAPI 规格暴露给 AI 助手,提供资源管理、工具注册、以及可定制的提示模板等能力,并通过 JSON-RPC 与客户端通信,支持多种传输与安全特性。

网页与API

Cloudflare Agents — MCP 服务器实现集合

基于 Model Context Protocol 的 MCP 服务器实现与示例,提供资源管理、工具注册与执行、以及提示模板渲染等能力,通过 JSON-RPC 与客户端交互,适配多种传输方式以为 LLM 应用提供可扩展的上下文服务。

AI与计算

Remarq MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,通过 MCP 协议向 LLM 客户端提供对 Remarq 注释系统的资源、工具和提示上下文访问,支持 JSON-RPC 的请求/响应模式。

AI与计算

SubNetree MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行,以及基于 Prompts 的渲染能力,通过 JSON-RPC 与 LLM 客户端进行通信;实现了一个用于 MCP 的服务器端,以便 LLM 客户端能读取资源、调用工具、以及渲染/获取提示模板等上下文信息。

网页与API

Guilders MCP 服务器

基于 Guilders API 的 MCP 服务器实现,通过 JSON-RPC 提供资源访问、工具执行以及提示模板渲染等能力,供大型语言模型(LLM)客户端安全地获取上下文数据与外部功能。

AI与计算

Minds AI MCP 服务器实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具和提示模板的标准化管理与对外接口,支持 HTTP 与 STDIO 等传输模式,面向大语言模型客户端的上下文服务。

AI与计算

Lunar MCP Server Kit

基于 Model Context Protocol(MCP)的后端服务器实现示例,提供资源/工具管理、工具执行以及面向 LLM 的上下文渲染能力,展示了如何用 MCPX 服务器核心实现 JSON-RPC 风格的请求/响应,并支持多种传输方式(如标准输入输出、SSE、HTTP 流等)。