返回首页

"上下文渲染" 标签

11 个结果

标签搜索结果

网页与API

AgEnFK MCP 服务器

基于 Model Context Protocol(MCP)的后端服务,实现资源、工具和提示模板的统一托管与执行,并通过 JSON-RPC 与 LLM 客户端通信,支持多传输方式(如标准输入输出、SSE、WebSocket)以提供可扩展的上下文服务。该仓库包含完整的 MCP 服务端实现及与本地后端的对接逻辑。

AI与计算

Sequential Thinking MCP v2 服务器实现

基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,提供会话管理、内存/思想(memory/thought)存储、分支与决策等资源与工具接口,并通过 JSON-RPC 进行通信,支持会话持久化、内存管理与多种交互场景,供 LLM 客户端调用外部功能与获取上下文数据。

AI与计算

Kastell MCP 服务端

基于模型上下文协议(Model Context Protocol,MCP)的后端实现,为大语言模型(LLM)客户端提供统一的资源管理、工具注册与执行、以及可定制的 Prompt 模板渲染等功能,并通过 JSON-RPC 与客户端通信,支持多传输协议与会话管理,构建 AI 场景中的上下文服务核心。

AI与计算

Claude Plugins MCP 服务器合集

这是一个包含多个基于模型上下文协议(MCP)的服务器实现的插件集,提供资源管理、工具注册与执行、以及提示模板渲染等能力,并通过 MCP SDK 的 JSON-RPC 与客户端进行交互,适用于 Claude Desktop 的上下文服务与插件化扩展场景。

AI与计算

MemoryLane MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的管理、以及 Prompt 模板的定义与渲染,向 LLM 客户端按标准化 JSON-RPC 方式提供上下文信息与功能。通过 STDIO 传输、可扩展传输等能力,支持对本地活动历史的上下文服务。

AI与计算

Quiver MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端通过标准化的 JSON-RPC 方式提供资源、工具和 Prompt 的注册、访问与渲染能力,并支持会话管理与多传输协议(如 STDIO/HTTP)的 MCP 服务。

AI与计算

My AI Resources MCP 服务端集合

基于 Model Context Protocol (MCP) 的后端服务器实现集合,用于向大语言模型客户端提供统一的上下文服务,包括资源(Resources)的托管与访问、工具(Tools)的注册与执行,以及提示模板(Prompts)的定义与渲染。仓库内含 Memory Bank 与 Cursor Shortcuts 两个成熟的 MCP 服务器实现示例,均通过标准的 JSON-RPC 形式与客户端通信,并提供以Stdio等多种传输方式的支持。

AI与计算

Claude LTM MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供统一的资源管理、工具调用和提示渲染能力,以便向大模型客户端(LLM)提供可访问的上下文信息和功能。实现包含对资源(Memory)的托管、工具注册与执行,以及对提示/上下文的组织与渲染,支持通过标准输入输出(stdio)以及 TCP/HTTP 钩子等多种传输方式进行 JSON-RPC 交互。

开发者工具

ClaudeMemory MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,提供对资源、工具与提示模板的统一管理与渲染,通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理、能力声明以及多种传输方式,用于在代码分析与开发场景中提供可扩展的上下文服务。

AI与计算

Concierge MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册/执行、Prompt 模板渲染,并通过 MCP/JSON-RPC 进行客户端交互,支持会话管理与跨协议传输,面向 LLM 客户端提供可扩展的上下文服务框架。

AI与计算

vLLM.rs MCP 服务端实现

基于 Rust 的 MCP(Model Context Protocol)服务器实现,整合 vLLM.rs 引擎,提供资源托管、工具注册与执行、Prompt 模板渲染等核心 MCP 功能,通过 JSON-RPC 风格通信与 MCP 客户端协同工作,支持多种传输场景并具备会话管理能力。