返回首页

"LLM 上下文服务" 标签

37 个结果

标签搜索结果

网页与API

Axon MCP Server

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,旨在为 LLM 客户端提供标准化的上下文服务:托管资源、注册和执行工具,以及定义与渲染提示模板,并通过 HTTP JSON-RPC 与客户端进行交互,支持会话管理与多传输模式(如 HTTP/StdIO)。

AI与计算

Run-IQ MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,正式提供资源、工具与提示的插件化管理,并通过 JSON-RPC 与客户端进行交互,支持多传输协议(如标准输入输出、SSE、WebSocket),为 LLM 应用提供可扩展的上下文服务。

AI与计算

Agenticore MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务,提供资源托管与访问、工具注册与执行、以及可定制的 Prompt 模板渲染,统一通过 JSON-RPC 与客户端交互,并支持多种传输方式(HTTP/SSE/stdio)以实现对大语言模型客户端的上下文与功能服务。

AI与计算

consult-llm-mcp

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册/执行和Prompt模板渲染,并通过 JSON-RPC 与客户端通信,支持多轮对话与多传输协议(如 STDIO、SSE、WebSocket)。

AI与计算

SkillNote MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,将 SkillNote 中的技能暴露为 MCP 工具,支持实时变更通知、资源管理和多传输协议,以便与各类大语言模型客户端进行标准化的上下文与功能对接。

AI与计算

Indigo MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具和提示模板等后端服务,通过 JSON-RPC 与 LLM 客户端交互,支持 stdio 与 HTTP 传输,以向 LLM 客户端提供 Indigo iAsset 数据、价格、CDP/分析等上下文和功能

AI与计算

NatShell MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供标准化的资源、工具和提示(Prompts)上下文服务,通过 JSON-RPC 与客户端通信,支持资源管理、工具注册/执行以及提示渲染等核心能力。实现中包含对工具注册、资源列举、资源读取、工具执行等 MCP 核心操作的处理逻辑,并提供了可运行的 MCP 服务入口。

网页与API

Memories MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,将本地 Memories 服务暴露为 MCP 工具集,支持向 LLM 客户端提供“资源/工具/提示模板”等上下文服务,并通过 MCP 协议处理请求、返回响应。该仓库包含一个可运行的 MCP 服务器实现,用于将 Memories REST API 与 MCP 客户端对接,方便 Claude Code、Claude Desktop、Codex、Cursor 等客户端通过统一协议访问内存资源、执行工具与获取提示模板。

AI与计算

NanoClawbster MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具以及提示模板等上下文信息,通过 JSON-RPC 与客户端通信,支持多传输通道(当前实现以 stdio 介质为主,后续可扩展为 SSE/WebSocket),并与 Composio 集成以暴露元工具,,用以构建可扩展的对话式 AI 后端服务。

AI与计算

Agent Memory MCP 服务器

基于 Model Context Protocol 构建的本地 MCP 服务器,提供可持久化内存资源、可注册并执行的工具,以及可渲染的 Prompt 模板,供大语言模型客户端以标准化的 JSON-RPC 方式获取上下文数据与功能。

AI与计算

mcp-mat

基于 Model Context Protocol (MCP) 的后端服务器,整合 Eclipse MAT 的资源、工具与 OQL 查询能力,通过 JSON-RPC 向 LLM 客户端提供统一的上下文、查询和执行接口。

AI与计算

Claude Code Harness MCP 服务器集成(Serena MCP)

基于 Model Context Protocol (MCP) 的后端实现,作为 Claude Code Harness 的核心服务之一,负责托管资源(Resources)、注册及执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与 LLM 客户端进行标准化交互,提供上下文信息、数据访问与外部功能调用等能力,支持多种传输方式(如标准输入输出、SSE、WebSocket 等)以实现安全、可扩展的后端上下文服务框架。

AI与计算

ABI MCP 服务器框架

基于 Model Context Protocol(MCP)的后端服务器实现,向大型语言模型客户端提供统一的资源管理、工具注册与调用,以及可定制的 Prompt 渲染能力;通过 JSON-RPC 2.0 进行通信,支持多种传输协议(如 stdio、SSE、WebSocket),以实现安全、可扩展的上下文服务。

AI与计算

ralph-starter MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具和提示模板等上下文能力,面向 LLM 客户端以标准化的 JSON-RPC 形式进行交互,支持多传输协议并实现会话管理与能力声明。

网页与API

Wrangler MCP 服务器

基于 Model Context Protocol 的后端服务器,向大语言模型客户端提供资源管理、工具执行与提示模版渲染等上下文服务,支持会话管理与多传输协议。

AI与计算

Supermodel MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供代码仓库的资源访问、工具执行和提示渲染能力,采用 JSON-RPC 进行通信,支持预计算图缓存、无缓存回退以及标准输入/输出传输。

AI与计算

agnix MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向大模型客户端以标准化方式提供资源、工具与提示模板等上下文能力;通过 JSON-RPC 与客户端通信,支持多传输协议(stdio、SSE、WebSocket),并实现会话管理、能力声明以及对 MCP 请求/响应的处理。

AI与计算

CompText MCP 服务器

基于 Model Context Protocol (MCP) 的服务端实现,作为 CompText Codex 的后端上下文服务,向 MCP 客户端暴露工具清单、执行工具调用、以及初始化能力声明等接口。通过将 Codex 中注册的命令工具对外暴露,MCP 客户端能够读取资源、调用工具、以及获取提示/模板等相关能力信息,并在会话中实现上下文管理与跨模块协作。目前实现提供工具列出、工具执行和初始化响应等核心能力,属于可直接在应用中集成的 MCP 服务器端组件。

AI与计算

Google Workspace MCP Server

基于 Model Context Protocol 的后端服务器实现,向大型语言模型客户端提供 Google Workspace 的资源、工具和 Prompt 模板,支持多服务整合、认证管理与可扩展的上下文服务。

AI与计算

Appwrite MCP Server (mcp-for-api)

一个基于 Model Context Protocol 的服务器实现,向大语言模型提供 Appwrite API 的资源、工具与提示模板,并通过 JSON-RPC 进行通信,作为 MCP 后端服务。

AI与计算

Mackerel MCP服务器

基于 Model Context Protocol 的 MCP 服务器,提供资源、工具与提示模板的后端服务,通过 JSON-RPC 与 MCP 客户端通信,内置对 Mackerel API 的多工具封装,支持多传输通道(如标准输入输出、SSE、WebSocket)以向大语言模型客户端提供可扩展的上下文服务。

AI与计算

Context 本地离线文档上下文服务

基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,提供离线文档资源管理、工具执行接口以及提示模板渲染,供大模型客户端在本地环境中进行高效、私有的上下文查询与交互。

网页与API

MCP Agent Mail 服务端(Rust 实现)

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具、提示模板的托管与执行,并通过 JSON-RPC 形式对接 LLM 客户端,支持多传输方式(如标准输入输出/HTTP),为 LLM 应用提供安全、可扩展的上下文服务。

AI与计算

CTX MCP 服务端实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具与提示模板的托管、注册与渲染,支持基于 JSON-RPC 的通信、会话管理以及多种传输协议(如 STDIO、HTTP、SSE)以供 LLM 客户端调用。

网页与API

inkeep-mcp

基于 Model Context Protocol 的 MCP 服务器实现,提供文档源注册、资源查询与工具执行等能力,通过标准化的 JSON-RPC(以 stdio 为传输)与客户端通信,为 LLM 应用提供文档上下文服务与查询能力。

网页与API

Verkada 模型上下文协议服务器端实现

基于模型上下文协议(MCP)的 Verkada API 后端服务器,提供资源管理、工具注册与执行,以及提示模板渲染等能力,通过 JSON-RPC 与大语言模型客户端进行通信,具备本地部署与扩展能力,并内置对 Verkada API 的工具集和请求处理框架。

AI与计算

Path402 MCP Server

基于 Model Context Protocol (MCP) 的后端实现,作为对话型LLM客户端的后端服务,托管并管理资源(Resources)、注册与执行工具(Tools)、定义并渲染 Prompt 模板(Prompts),通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 等传输方式,提供会话管理和能力声明的上下文服务框架。

AI与计算

ASON MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供 compress_json、decompress_ason、get_compression_stats、configure_compressor 等工具,以 JSON/ASON 数据压缩、解压、分析并支持可配置的全局参数管理

AI与计算

mdemg MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,为 LLM 客户端提供统一的上下文服务,核心功能包括托管与管理 Resources(资源)、注册和执行 Tools(工具),以及通过 Cursor 等传输途径与客户端进行 JSON-RPC 通信,便于将内存、检索、推理等能力暴露给 AI 编码代理。当前仓库中实现了一个可运行的 MCP 服务器端,具备工具注册、服务暴露和标准传输接口的完整能力。

AI与计算

mcp-server-git

基于 Model Context Protocol(MCP)的后端服务,用于Git仓库资源的托管、工具注册/执行以及Prompt模板渲染,供LLM客户端通过JSON-RPC进行上下文服务交互。支持会话管理、能力声明,以及多传输协议(如 StdIO、SSE、WebSocket)等扩展能力,并提供Lean MCP接口以降低上下文消耗,便于在不同场景下与LLM进行高效交互与功能扩展。

AI与计算

MCP Gateway

基于 Model Context Protocol (MCP) 的后端网关,提供资源与工具注册/执行、Prompt 渲染与上下文服务,并通过 JSON-RPC 与 MCP 客户端进行安全、可扩展的通信。

网页与API

v1.npm MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端提供 npm 包的上下文、健康数据与可用工具,通过 JSON-RPC 形式处置资源、工具、提示模板等能力,并支持 MCP 客户端的连接与调用。

AI与计算

Helicone MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,作为 MCP 服务器向 LLM 客户端暴露 Helicone 的数据资源与工具,并通过 JSON-RPC 进行通信;当前实现注册了若干工具(如 query_requests、query_sessions、use_ai_gateway),实现了通过标准输入/输出的传输(Stdio)运行方式,以供 LLM 客户端调用与交互。

AI与计算

Moltbook MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器实现,托管并管理资源(Resources)、注册并执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),通过标准的 JSON-RPC 方式向 LLM 客户端提供上下文信息与功能,并支持组件化扩展与会话分析。<br/>该仓库实现了完整的 MCP 服务端框架及多组件插件,能够在 Node.js 环境中运行并对外提供 MCP 接口。<br/>注:项目使用 stdin/stdout 作为传输通道(Stdio Server Transport),并提供了丰富的组件体系以实现资源、工具、提示模板等能力。

AI与计算

AI Developer Guide MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具和 Prompts 的统一访问与渲染能力,支持通过标准化的 JSON-RPC 进行通信,并可通过 STDIO 等传输通道接入。

AI与计算

MCP-Go 服务器

基于 Go 语言实现的 Model Context Protocol (MCP) 服务器,提供资源管理、工具注册和 Prompt 模板等核心功能,用于构建 LLM 应用的上下文服务后端。

AI与计算

gomcp

gomcp 是一个使用 Go 语言编写的 Model Context Protocol (MCP) 服务器的非官方实现,旨在为 LLM 应用提供工具和 Prompt 服务。