返回首页

"LLM context" 标签

13 个结果

标签搜索结果

AI与计算

OmniFocus MCP 服务器(FastMCP 实现)

基于 Model Context Protocol (MCP) 的 OmniFocus 后端服务器实现,提供对 OmniFocus 的资源、工具、提示模板的标准化访问,并通过 JSON-RPC 与 LLM 客户端进行通信。服务器底层通过 AppleScript 与 OmniFocus 交互,支持资源管理、工具执行、提示渲染等 MCP 服务器核心能力。

AI与计算

OWASP WrongSecrets MCP 服务端

基于 Model Context Protocol 的 MCP 服务器后端,实现通过 JSON-RPC 与客户端进行交互,向 LLM 客户端提供资源(Resources)、工具(Tools)以及提示模板(Prompts)的托管、注册、执行与渲染能力,并支持会话管理、能力声明以及多传输协议扩展。该实现不仅提供核心的 MCP 请求处理,还包含可运行的服务器组件与完整的服务逻辑。

网页与API

Yandex Wiki MCP 服务器

基于 MCP 架构的后端服务器,为大语言模型(LLM)客户端提供对 Yandex Wiki 的页面读取与写入、以及相关工具的访问与缓存支持,通过 JSON-RPC 提供统一接口,支持读写模式并可选 Redis 缓存。

AI与计算

ArchGuard MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务器实现,作为后端为大语言模型客户端提供标准化的上下文信息、资源数据、工具执行能力以及自定义提示模板等功能,支持 JSON-RPC 通信、会话管理和多种传输协议。

AI与计算

pair-review MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,向大语言模型客户端提供规范化的上下文服务,包括资源管理、工具注册与执行,以及可定制的提示模板渲染;通过 JSON-RPC 进行通信,支持多种传输模式(如 stdio、HTTP/Streamable HTTP),并实现会话管理与能力声明,适用于在本地搭建的 MCP 服务端场景。

AI与计算

Brakit MCP Server

Brakit 提供基于 Model Context Protocol (MCP) 的服务器端实现,向大型语言模型(LLM)客户端以标准化方式暴露资源、工具和提示模板,并通过 JSON-RPC 进行通信,支持会话管理、能力声明以及多种传输方案,用于在本地环境中为 LLM 应用提供上下文服务与扩展能力。

AI与计算

Harness MCP Server v2

基于 Model Context Protocol 的完整 MCP 服务器实现,实现资源托管、工具注册与执行,以及提示模板渲染,支持 Stdio 与 HTTP 传输,面向 LLM 客户端提供标准化的上下文服务。

网页与API

Akashi Context MCP 服务器

基于 Model Context Protocol(MCP)实现的后端服务器,提供资源托管、工具注册与执行、以及可定制的 Prompt 模板渲染。通过 JSON-RPC 形式与 LLM 客户端通信,支持多传输方式(HTTP、STDIO 等),并提供会话管理、能力声明、访问控制与审计追踪等完整后端能力。仓库内不仅包含完整的 MCP 服务端实现,还实现了与 Claude/Cursor/Windsurf 等 MCP 客户端的对接支持。

AI与计算

Obsidian-Memory MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,作为 AI 助手的后端上下文服务,提供资源管理、工具注册与执行、以及提示模板渲染等核心能力,支持以 JSON-RPC 方式与运行在标准输入/输出、SSE、HTTP 的客户端进行通信。它将 Obsidian 笔记库与快速查询/推理功能整合,为 LLM 客户端提供安全、可扩展的上下文和功能接口。

AI与计算

Sift MCP Gateway

基于 Model Context Protocol (MCP) 的后端服务,提供资源(Resources)托管与管理、工具(Tools)的注册和执行、以及 Prompt 模板的定义与渲染,面向大语言模型(LLM)客户端,通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议(如 StdIO/SSE/WebSocket)的上下文服务框架。

AI与计算

llm-energy MCP 服务器

基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染,支持 JSON-RPC 通信与多传输接入,面向 LLM 客户端提供统一的上下文与功能入口。

AI与计算

Turbopuffer MCP 服务器(TypeScript 实现)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册、资源管理、提示模板等能力,并通过 JSON-RPC 与客户端通信,支持 STDIO 与 HTTP 传输,以供 LLM 客户端查询、调用工具和获取上下文信息。

网页与API

CentralMind Gateway

CentralMind Gateway 是一款轻量级 API 网关,能够将数据库快速转换为 AI 友好的 MCP 和 RESTful API 服务。