返回首页

"LLM上下文管理" 标签

14 个结果

标签搜索结果

AI与计算

Cognithor MCP 服务器

基于 Cognithor 的 Model Context Protocol (MCP) 服务器实现,提供资源(Resources)托管与管理、Tool(工具)注册与执行,以及 Prompt 模板的定义与渲染等能力;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并具备多传输通道(如 StdIO、SSE、WebSocket)的可扩展上下文服务框架。}

网页与API

Literature Review RAG MCP Server

基于Model Context Protocol实现的学术文献检索与分析后端,支持德国区域经济转型领域的文献语义搜索与多工具调用,兼容Claude等LLM客户端。

AI与计算

CyberStrikeAI MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册/执行、Prompt 模板渲染以及面向 LLM 客户端的上下文服务,支持 stdio 与 HTTP 等传输、外部 MCP 联邦等扩展能力,旨在为渗透测试场景中的 AI Copilot 提供标准化的上下文与执行能力。

开发者工具

Open Edison

Open Edison 是一个安全的 Model Context Protocol (MCP) 控制面板和代理服务器,通过强化安全策略、监控AI代理交互、并管理资源、工具和提示模板,帮助降低数据泄露风险。

开发者工具

pctx

pctx是一个增强型Model Context Protocol (MCP) 服务器,它将多个上游MCP服务聚合到一个统一接口,并通过其独特的“代码模式”沙盒环境,实现AI智能体与工具和服务的更高效、更安全的交互。

开发者工具

Multi-Model AI开发助手MCP服务器

基于Rust实现的MCP服务器,为LLM客户端提供多模型AI能力,包括代码生成、代码审查、上下文管理和文件系统探索。

AI与计算

FlowDex LLM上下文管理与工具路由服务

一个为LLM应用提供高效上下文管理、语义检索和外部工具调用能力的后端服务,支持Claude Code (MCP) 集成。

开发者工具

XMCP

一个用于使用 TypeScript 构建和部署 Model Context Protocol (MCP) 服务器的框架,旨在简化 LLM 应用上下文服务开发。

AI与计算

Poet MCP 服务器

Poet 是一个集成 MCP 服务器的静态网站生成器,为 LLM 应用提供内容上下文和交互能力。

AI与计算

DollhouseMCP服务器

提供AI上下文管理、工具集成和个性化元素定制服务,通过JSON-RPC协议为LLM客户端增强能力。

AI与计算

Gram - MCP服务器托管与管理平台

Gram是一个强大的平台,专注于创建、管理和托管Model Context Protocol (MCP) 服务器,为大型语言模型(LLM)应用提供上下文信息和外部工具调用能力。

AI与计算

Cartridges

用于训练和部署轻量级长上下文表示的项目,同时提供基于Model Context Protocol (MCP) 的Gmail功能集成服务器。

开发者工具

Opik MCP Server

Opik MCP Server是Opik平台的Model Context Protocol (MCP) 服务器实现,为LLM客户端提供上下文信息和工具能力,支持IDE集成。

开发者工具

modelcontextprotocol go sdk

该项目是Model Context Protocol (MCP) 的Go语言SDK,旨在帮助开发者构建MCP服务器和客户端,为LLM应用提供标准化的上下文管理能力。