返回首页

"本地上下文服务" 标签

5 个结果

标签搜索结果

AI与计算

Cognithor MCP 服务器

基于 Cognithor 的 Model Context Protocol (MCP) 服务器实现,提供资源(Resources)托管与管理、Tool(工具)注册与执行,以及 Prompt 模板的定义与渲染等能力;通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,并具备多传输通道(如 StdIO、SSE、WebSocket)的可扩展上下文服务框架。}

AI与计算

Crust MCP网关服务器

Crust 是一个本地的 Model Context Protocol 网关后端,通过 JSON-RPC 与 MCP 客户端通信,提供资源、工具、提示模板等上下文服务,并在网关层实现安全规则拦截,支持多传输协议(如 Stdio、SSE、WebSocket)的接入与扩展。

AI与计算

Codegraph MCP 服务器

基于 Model Context Protocol 的本地化后端服务器,提供代码依赖图的资源、工具与 Prompts;通过 JSON-RPC 与 LLM 客户端交互,支持单仓库或多仓库模式,提供资源访问、工具执行、Prompt 渲染等能力,便于在 AI 代理中查询代码结构、执行外部功能和获取定制化对话模板。

AI与计算

Seline MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端服务,负责以标准化方式向 LLM 客户端暴露资源、工具和提示模板等上下文信息与能力,支持会话管理、能力声明以及跨传输协议的通信。

AI与计算

axios-ai-mail MCP Server

基于模型上下文协议(MCP)的后端服务器实现,为LLM客户端提供对邮件资源、工具执行以及提示模板的标准化服务,支持通过JSON-RPC风格的通信与多传输协议协作(如 STDIO/WebSocket),实现邮件上下文的管理与自动化工作流。