返回首页

"模型上下文服务" 标签

25 个结果

标签搜索结果

AI与计算

Plasmite MCP 服务器

基于 MCP(Model Context Protocol)实现的后端服务,向大语言模型(LLM)客户端以标准化的 JSON-RPC 方式提供资源、工具和提示模板等上下文能力,并支持远程访问、UI 展现及多传输协议等场景。

AI与计算

Atmosphere MCP 服务端

基于 Atmosphere 框架实现的 Model Context Protocol(MCP)服务器。该服务端承担资源管理、工具注册与执行、以及 Prompt 模板的渲染等核心 MCP 功能,并通过 JSON-RPC 与 LLM 客户端通信,提供安全、可扩展的上下文服务框架,同时支持多传输协议(WebSocket、SSE、Long-Polling 等)以适配不同场景。

AI与计算

superbot-mcp-server

基于 Model Context Protocol(MCP)的后端服务实现示例,提供一个可运行的 MCP 服务器,用于暴露工具并通过 JSON-RPC 与 MCP 客户端通信,底层以 Claude Code 的快速 MCP 服务端为例展开实现。该服务器可与多种前端客户端协同工作,支持工具注册、执行与提示渲染等 MCP 相关能力。

AI与计算

CodexTools MCP 服务器

基于 Model Context Protocol 的 MCP 服务器实现,提供工具调用、资源与提示管理,以及对外部能力的扩展,通过 JSON-RPC 在标准输入输出(STDIO)或未来扩展的传输方式与客户端交互。

AI与计算

Granzion MCP 服务器集成套件

基于 Model Context Protocol (MCP) 的后端服务器集合,提供 Resources(资源)、Tools(工具) 和 Prompts(提示) 的标准化管理与 JSON-RPC 通信,用于向大语言模型客户端提供可扩展的上下文、数据访问和外部功能调用能力。

AI与计算

UIMap MCP 服务器实现

一个基于 Model Context Protocol(MCP)的后端服务器实现,为大型语言模型(LLM)客户端提供统一的上下文信息与功能,包括工具的注册与执行、资源访问和提示模板渲染,支持通过 JSON-RPC 与客户端通信,且可通过本地或网络传输(如 Stdio)进行集成。

AI与计算

Octave MCP Server

基于 Model Context Protocol (MCP) 的后端服务,按标准化方式向 LLM 客户端提供资源、工具与 Prompt 模板,并通过 JSON-RPC 进行通信,支持多传输协议与会话管理,适用于以上下文驱动的 AI 应用场景。

AI与计算

NeuralMemory MCP 服务器

基于模型上下文协议(Model Context Protocol,MCP)的服务器实现,提供资源、工具、提示模板等的统一托管、注册与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(标准输入/输出、Server-Sent Events、WebSocket),为大语言模型客户端提供安全、可扩展的上下文服务框架。

AI与计算

Hebo MCP 服务端实现

基于 MCP(Model Context Protocol)标准的服务器端实现,能够注册工具、通过流式传输向 LLM 客户端提供工具执行能力与上下文,并通过 JSON-RPC 进行交互,适用于分布式、AI 驱动的后端场景。

AI与计算

PRISM MCP 服务器

基于 Model Context Protocol 的后端服务,暴露 PRISM 的资源、工具和提示模板等功能,使用 JSON-RPC 通过多种传输(本仓库默认 stdio)与 LLM 客户端进行通信。

AI与计算

Zen MCP Server

基于 Model Context Protocol (MCP) 的后端服务端实现,提供资源、工具、提示模板的注册、执行与渲染,并通过 JSON-RPC 与 MCP 客户端进行通信,支持会话管理、能力声明,以及资产的管理与扩展。

AI与计算

CodingBuddy MCP 服务器

基于 Model Context Protocol 的后端服务器实现,用于以标准化方式向 LLM 客户端提供上下文信息与功能:托管资源、注册与执行工具、定义与渲染 Prompt 模板,且通过 JSON-RPC 与客户端通信,支持多种传输协议并具备会话管理能力。

网页与API

MoJoAssistant MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源存储、工具注册与执行、以及 Prompt 模板的渲染与管理,通过 JSON-RPC 与客户端通信,支持 HTTP/API、STDIO 等传输方式,并集成了 OpenCode Manager、OAuth 2.1 等扩展功能,适用于向 LLM 客户端提供可扩展的上下文与能力服务。

AI与计算

Claude Cognitive MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,为 LLM 客户端提供资源管理、工具注册与执行、以及可自定义的 Prompt 模板渲染等上下文服务,支持 JSON-RPC 通信及多传输协议(如 STDIO、HTTP/SSE/WebSocket)以实现安全、可扩展的后端上下文服务。

商业系统

Katana MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行、以及提示模板渲染等能力,通过 JSON-RPC 与客户端通信,支撑 LLM 应用的上下文与功能服务。

开发者工具

GoodVibes MCP 服务端插件集合

一个基于 Model Context Protocol 的多引擎 MCP 服务器集合,提供统一的资源管理、工具注册与执行、以及 Prompt 模板渲染等能力。通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及可扩展的传输协议(如标准输入输出、Server-Sent Events、WebSocket 等)。仓库中包含多个独立的 MCP 服务器实现(前端分析引擎、项目工程引擎、精密引擎、批处理引擎等),形成一个对话式、可扩展的后端上下文服务框架,供 LLM 客户端按需调用。

网页与API

Google Workspace MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 方式暴露资源管理、工具执行以及提示模板的能力,核心通过 registerTool 将大量 Google Workspace 相关操作暴露为可调用的工具集,支持以 Stdio 传输等多种通信方式进行上下文服务与会话管理。

AI与计算

Epicflare MCP 服务端实现

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源托管、工具注册与执行、以及提示模板渲染等核心能力,并通过 JSON-RPC 与 LLM 客户端进行上下文与功能交互,部署在 Cloudflare Workers 中以实现安全、可扩展的上下文服务。

开发者工具

kubectl-mtv MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,作为与大语言模型(LLM)客户端的标准化上下文服务入口,提供资源管理、工具注册/执行以及提示模板的渲染能力,支持 JSON-RPC 交互与多种传输模式(如 stdin/stdout、SSE、WebSocket),并具备会话管理、能力声明和动态工具发现等特性。该服务器以 kubectl-mtv 项目内的实现为基础,能够与客户端通过 JSON-RPC 请求交互,提供迁移相关的资源、工具及提示信息的上下文服务。

网页与API

Griffin API MCP服务器

基于 Model Context Protocol (MCP) 的后端服务,向大型语言模型(LLM)客户端提供 Griffin API 的资源、工具和提示模板,并通过 JSON-RPC 进行交互,支持 STDIO 传输等多种传输方式,帮助在对话中访问和操作银行相关数据。

网页与API

f5xc-api-mcp

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与提示模板渲染等能力,供 LLM 客户端以标准化方式获取上下文信息和外部功能访问。

网页与API

Vibe Kanban MCP 任务服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供可供大模型(LLM)客户端查询的任务、仓库、项目等上下文与执行能力,通过 JSON-RPC 风格的 MCP 通信,将后端数据与功能暴露给 LLM 客户端使用,并支持通过标准的 MCP 服务器接口执行工具与任务流程。

网页与API

MCP 服务器示例与工具/资源整合演示(Model Context Protocol 服务端)

基于 Model Context Protocol(MCP)的服务器端实现示例集合,展示如何暴露工具、资源与 Prompt 模板,并通过 JSON-RPC 与客户端进行通信,涵盖多种 MCP 服务端实现与用法,适合作为后端上下文服务的参考实现。

AI与计算

CustomGPT 模型上下文协议服务器

一个功能全面的模型上下文协议 (MCP) 服务器,通过标准化接口,让大型语言模型 (LLM) 客户端能够无缝访问和管理 CustomGPT 智能体及其数据。

AI与计算

MCP客户端-服务器示例

一个最简化示例,展示如何基于MCP框架构建支持工具调用的服务器及对应的客户端。