返回首页

"缓存" 标签

8 个结果

标签搜索结果

AI与计算

helix.mcp — Helix 与 AzDO 的 MCP 服务器实现

基于 Model Context Protocol 构建的 MCP 服务器,提供 Helix/Azure DevOps API 的资源、工具和提示模板给大型语言模型代理,支持跨进程缓存、HTTP/StdIO 传输等上下文服务能力。

开发者工具

Cachebro MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,提供带缓存的文件读取工具、批量读取、缓存状态与清理等功能,面向大语言模型(LLM)客户端以标准化方式提供资源、工具与提示渲染能力。

网页与API

Livewire Flux MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,提供 Livewire Flux 组件/布局文档的获取、搜索和相关资源的访问能力,方便 AI 客户端通过 MCP JSON-RPC 与之交互。

AI与计算

Overseerr MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供 Overseerr 集成的上下文信息、工具和提示模板,通过 JSON-RPC 进行通信,并支持 STDIO、SSE/HTTP 等传输通道,便于在 AI 应用中进行资源检索、请求管理与媒体详情查询等功能的上下文服务。

AI与计算

Gemini MCP 服务器

将 Google Gemini 模型能力封装为 MCP 服务器,提供文本生成、对话、函数调用、文件处理和缓存等工具,方便 LLM 客户端调用。

数据库与文件

Momento MCP服务器

基于Momento云服务的MCP服务器,为LLM应用提供数据存储和访问工具,实现上下文信息的管理和利用。

AI与计算

内存缓存MCP服务器

这是一个基于Model Context Protocol的内存缓存服务器,通过高效缓存数据减少LLM交互过程中的Token消耗。

AI与计算

Memory Cache Server

该项目是一个MCP服务器,通过内存缓存机制,为LLM应用提供数据缓存服务,减少重复数据传输,从而降低Token消耗。