返回首页

"AI上下文服务" 标签

37 个结果

标签搜索结果

AI与计算

Turbo EA MCP Server

基于 Model Context Protocol 的后端服务,提供对 Turbo EA 数据的只读访问、资源与工具注册与执行,以及 Prompt 模板定义与渲染,供大语言模型以标准化的 JSON-RPC 方式查询和调用。该仓库实现了一个可运行的 MCP 服务器,包含 OAuth/SSO 集成、REST 风格资源与工具的实现,以及用于 AI 客户端的 Prompts 定义与渲染能力,支持本地测试(stdio 模式)与容器化部署。

AI与计算

Konkin MCP 服务端

一个基于 Model Context Protocol (MCP) 的服务端实现,作为后端向大模型/LLM 客户端提供资源、工具调用和提示模板等上下文信息,通过 JSON-RPC 形式进行通信,并支持 SSE、WebSocket 等传输方式及会话管理、能力声明等安全可扩展的上下文服务框架。

AI与计算

oh-my-codex MCP 后端服务器集合

基于 Model Context Protocol (MCP) 构建的后端服务器集合,提供资源/内存等资源管理、工具注册与执行,以及提示模板渲染等能力,作为 LLM 客户端的上下文与功能服务提供商。包含 state/memory/code_intel/trace/team 等独立 MCP 服务,通过 JSON-RPC 风格的请求/响应进行交互,并可通过 StdIO 启动在后台运行,支持会话管理与多传输协议适配,面向真实的 MCP 客户端使用场景。

AI与计算

Knowledge Context Protocol MCP桥接实现

本仓库提供基于Knowledge Context Protocol(KCP)的MCP桥接服务器实现,能将 knowledge.yaml 清单转化为MCP资源、工具与提示,向LLM客户端按MCP协议提供上下文知识与外部功能访问。实现涵盖Python、Java、TypeScript等语言的服务器实现与测试用例,支持子清单合并、资源读取、工具调用以及提示渲染等核心MCP功能。

AI与计算

rust-faf-mcp

基于 FAF 的 MCP 后端服务器,实现资源管理、工具执行与 FAF 相关的提示模板渲染,使用 JSON-RPC 通过标准输入输出进行通信。该服务器提供 5 个工具:faf_init、faf_git、faf_read、faf_score、faf_sync,并实现 MCP 协议的核心功能(初始化、工具列出与调用、资源查询等)。

商业系统

Fastn MCP 服务器

基于 Model Context Protocol (MCP) 的企业级后端服务器实现,提供资源、工具、提示模板等上下文服务,支持多传输协议(SSE、Streamable HTTP、stdio),并通过 OAuth 2.1/自定义鉴权为 LLM 客户端提供安全、可扩展的上下文服务。

AI与计算

Lucius MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,面向 LLM 客户端提供统一的上下文能力(资源、工具、Prompts),通过 JSON-RPC 进行通信,底层采用 FastMCP 与 Starlette 构建,支持会话管理、能力声明以及多传输协议(如 Stdio、SSE、WebSocket)等扩展能力,面向 Allure TestOps 场景的资源与工具服务化暴露。

AI与计算

Atlas MCP 服务器实现

基于 Model Context Protocol (MCP) 的 Atlas 后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt/模板的渲染等 MCP 核心能力,通过 JSON-RPC 与客户端通信,支持 StdIO 与 SSE 等传输方式,适配多种 LLM 客户端的上下文服务需求。

AI与计算

DevServer MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,作为后端服务提供资源管理、工具注册与执行、以及提示模板等功能,能够通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明,以及多种传输方式,便于为大型语言模型(LLM)提供统一的上下文与功能服务。

AI与计算

ChingTech MCP 服务器(Model Context Protocol 服务端)

基于 MCP 架构的后端服务器,向 LLM 客户端标准化提供资源、工具和提示(Prompts)等上下文与能力,通过 JSON-RPC 进行请求/响应,并支持多传输协议(如 Stdio/SSE/WebSocket)与会话管理,用于构建安全、可拓展的 AI 应用后台。

AI与计算

ATaC MCP Server

基于 Model Context Protocol (MCP) 的服务器端实现,提供对资源、工具和提示模板的托管、注册与执行能力,并通过 MCP 客户端以 JSON-RPC 方式进行交互,支持将 ATaC 工作流在生产环境中作为上下文服务对接到强大的大语言模型客户端。

AI与计算

ACK Protocol MCP Server

基于模型上下文协议(MCP)的后端服务实现,提供以标准化 JSON-RPC 形式通过 SSE 传输向 LLM 客户端提供上下文信息、资源、工具以及提示模板等能力,支持多工具调用与资源查询等 MCP 核心功能。

AI与计算

OpenPaean MCP Server

基于 Model Context Protocol 的本地 MCP 服务器实现,提供资源读取、工具调用和工具/资源清单等核心 MCP 功能,用于本地 MCP 客户端对接的上下文服务和工具执行能力。

AI与计算

Yeehaw MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具与提示模板的标准化上下文服务,能与 Claude Code 等 LLM 客户端通过 JSON-RPC 进行交互,向客户端暴露 Yeehaw 项目、服务器、日志、环境变量和知识库等上下文信息,并支持对资源和工具的管理与执行。

AI与计算

StreamNative MCP Server

基于 Model Context Protocol (MCP) 的后端服务,用于向大语言模型(LLM)及其代理提供资源数据、可执行工具以及可定制的 prompts,支持通过 JSON-RPC 与客户端通信,并可通过 stdio、SSE 等传输协议进行多会话场景下的上下文服务整合。该实现整合了 StreamNative Cloud、Apache Kafka 和 Apache Pulsar 等资源与能力,便于 AI 应用访问和操作海量分布式系统。

AI与计算

Local Brain MCP 服务端

基于 Model Context Protocol(MCP)的本地后端实现,向大型语言模型客户端以标准化的 JSON-RPC 方式提供资源管理、工具执行以及提示模板渲染能力,包含会话管理、能力声明,并支持多传输通道(以 stdio 为主)实现一个可扩展的上下文服务框架。

AI与计算

UseAI MCP服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、提示模板渲染,并通过 MCP 外部端点集成远程工具,支持 AG-UI 协议与 JSON-RPC 风格通信,适配多传输通道(如 WebSocket、轮询等)以为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

AskPlex MCP 服务器

AskPlex 基于 Model Context Protocol(MCP)的后端实现,提供工具注册、任务执行和提示模板等能力,并通过 JSON-RPC 与 LLM 客户端交互, bridging 与 Perplexity 实时检索等外部资源的能力。

网页与API

xsql MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供对 AI 客户端的上下文能力、工具执行与提示渲染等核心能力,通过 JSON-RPC 与客户端通信,并支持多传输协议(如标准输入输出和流式 HTTP)以实现安全、可扩展的后端上下文服务。

AI与计算

Poe Code MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源、工具、提示模板的托管与管理,以及通过 JSON-RPC 与客户端进行通信,支持多传输通道,供大语言模型应用安全、可扩展地获取上下文与外部功能。

AI与计算

AIPartnerUpFlow MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源与工具的托管、权限化访问,以及 Prompt 模板的定义与渲染,外部通过 JSON-RPC 进行通信,支持多种传输协议(如 HTTP/WS/SSE),用于向 LLM 客户端提供可扩展的上下文服务与工具调用能力。

AI与计算

Agent Assistant MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供工具注册、资源管理和提示模板渲染等核心能力,通过 JSON-RPC/Connect 框架与 MCP 客户端进行标准化通信,支持多个传输和会话能力,服务端还与前端 Web 界面和后端资源/工具链进行协作。

AI与计算

JSON to Excel MCP by WTSolutions

基于 Model Context Protocol (MCP) 的后端服务,实现了资源管理、工具注册与执行以及提示渲染等核心 MCP 功能,提供将 JSON 转换为 CSV 的工具与相关提示,用于向大型语言模型(LLM)客户端提供上下文与外部功能调用能力。

AI与计算

Computer MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)管理、工具(Tools)注册与执行、以及提示模板(Prompts)渲染,支持 stdio、Web 服务等传输协议,通过 JSON-RPC 与 MCP 客户端通信,向大模型客户端提供上下文、数据访问、外部功能调用等能力。

AI与计算

Fastly MCP Server

基于 Model Context Protocol 的 MCP 服务器端实现,作为 AI 助手的后端上下文服务,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等功能,支持通过 JSON-RPC 与客户端通信,并可在 stdio、HTTP(含 SSE)等传输模式下运行,具备会话管理、能力声明和安全保护机制。

数据库与文件

Manifest MCP 服务生成与托管平台

一个用于生成、管理和托管基于 Model Context Protocol (MCP) 的AI代理服务器的平台,可将数据库和文件资源暴露给LLM客户端作为工具和上下文。

AI与计算

Theoria - 神学研究引擎

Theoria 是一个现代神学研究引擎,能索引个人图书馆、规范圣经引文、提供AI洞察,并作为MCP服务器为LLM应用提供上下文服务。

开发者工具

Azure Terraform模块上下文服务器

这是一个MCP(Model Context Protocol)服务器,能够为AI智能体提供Azure Terraform模块的索引、高级分析、代码搜索和管理服务。

AI与计算

统一MCP智能服务器

结合向量搜索、知识图谱和网页智能,为AI应用提供强大的上下文信息与功能调用服务。

AI与计算

robodog MCP 服务器

robodog MCP 服务器是一个轻量、快速、零安装的上下文服务后端,为AI客户端提供文件资源管理、AI工具调用、Prompt模板渲染等功能,支持JSON-RPC通信和多种传输协议。

AI与计算

Semiont - 语义知识平台

一个AI驱动的语义知识平台,从非结构化内容中自动提取知识图谱,为RAG系统提供丰富的上下文理解和LLM集成服务,其中包含一个符合MCP协议的核心服务器模块。

开发者工具

MCP多语言上下文协议服务器

提供Python、Go、Rust三种语言实现的生产级Model Context Protocol (MCP) 服务器,旨在标准化AI系统与工具间的交互,支持VS Code集成。

AI与计算

Python MCP 服务器与客户端

基于Python实现模型上下文协议(MCP)服务器,提供文档搜索工具功能,支持Stdio和SSE传输协议。

AI与计算

MCP求职者信息服务器示例

一个基于MCP协议的服务器,用于向AI提供求职者简历、网站等结构化和非结构化信息作为上下文。

数据库与文件

PostgMem: 基于MCP的向量记忆服务器

使用PostgreSQL和pgvector为AI应用提供向量记忆存储和语义搜索的MCP服务器。

桌面与硬件

Rodel Agent MCP服务器

Rodel Agent桌面应用内嵌MCP服务器,为MCP客户端提供上下文服务和AI功能,同时具备独立的AI助手应用功能。

开发者工具

mcp attr

mcp-attr 是一个 Rust crate,旨在通过声明式属性和类型系统,简化 Model Context Protocol (MCP) 服务器的创建,方便开发者和 AI 构建 MCP 后端应用。