返回首页

"模型上下文管理" 标签

7 个结果

标签搜索结果

AI与计算

MCP_NodeServer – Model Context Protocol 后端服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具和提示(Prompts)的注册、管理与执行,通过 JSON-RPC 与 MCP 客户端通信,支持多传输通道(如标准输入输出)以为大语言模型客户端提供可扩展的上下文服务。

AI与计算

meridian-channel MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,暴露资源、工具和提示模板,通过 JSON-RPC 与客户端通信,支持会话管理与可扩展的传输协议。

AI与计算

Reddit Stash Insights MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,实现将 Reddit Stash 的索引、查询与对话能力以工具形式暴露给 Claude Code 等 MCP 客户端,提供资源访问、工具调用和提示模板渲染等上下文服务。

AI与计算

SpecForge MCP 服务器(Model Context Protocol 实现)

基于 Model Context Protocol (MCP) 的后端服务,作为 LLM 客户端的上下文服务提供者,负责资源与工具的托管管理、Prompt 模板的定义与渲染,以及与 MCP 客户端通过 JSON-RPC 协议进行通信。该实现包含身份鉴权、会话管理、快照与导入流程、以及对工具的注册与执行能力,支持多种传输与扩展能力,定位为 Agentier IDE 等环境中的后端上下文服务。

AI与计算

Climi MCP 服务端(Kimi 集成)

基于模型上下文协议(MCP)的后端服务器,用于向 LLM 客户端暴露资源、工具和模板等上下文信息,并通过多传输协议与客户端通信,专为 Claude Code 的 Kimi 集成场景提供可扩展的上下文服务。

AI与计算

Converse MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与执行、Prompt 模板渲染等核心能力,通过 JSON-RPC 与客户端通信,并支持多种传输方式(如 Stdio、SSE、WebSocket)以构建面向 LLM 的上下文服务框架。

AI与计算

Sage MCP:多租户模型上下文协议平台

一个可扩展的、多租户模型上下文协议(MCP)服务器平台,集成了OAuth认证和可插拔的连接器,为LLM应用提供丰富的上下文服务和工具调用能力。