返回首页

"Rust 服务端" 标签

8 个结果

标签搜索结果

开发者工具

PMAT-MCP-Agent-Toolkit

基于 Model Context Protocol (MCP) 的服务器实现与工具包,提供资源托管、工具注册与执行、以及 Prompt 模板渲染等能力,采用 JSON-RPC 与客户端通信,支持会话管理与多传输协议(_stdio、SSE、WebSocket)等,目标为为 LLM 客户端提供安全、可扩展的上下文服务框架。

网页与API

git-mcp-rs

基于 MCP 的后端服务器(Rust 实现),通过 JSON-RPC 提供对 GitHub 数据的实时访问能力,支持标签、变更日志、README、文件树等资源的管理与查询。

AI与计算

KTME Knowledge Transfer Me - MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与调用、Prompt 模板渲染等能力,支持 STDIO、SSE/HTTP 等传输模式,通过 JSON-RPC 与 LLM 客户端进行交互,为 AI 代理提供可扩展的上下文服务框架。

AI与计算

Plandb MCP 服务端

基于 Model Context Protocol (MCP) 的 Rust 实现,作为后端服务器提供以标准化方式向 LLM 客户端暴露上下文、资源、工具与 Prompt 的能力。通过 STDIO JSON-RPC 提供 MCP 服务器核心功能,支持会话管理、能力声明和工具调用等,并集成 CLI、HTTP 等多接口入口,便于在本地或嵌入式环境中实现多模型协作场景下的任务上下文服务。

AI与计算

ikuncode-aimcp

基于 Rust 的统一 MCP 服务器实现,整合 Gemini、Codex 与 Grok,提供标准化的资源管理、工具执行与提示渲染能力,支持多传输协议与会话管理。

AI与计算

OpenNote MCP 后端服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对用户文档资源的语义检索、文档元数据与内容访问等能力,并通过 JSON-RPC/流式 HTTP 与 LLM 客户端进行交互,适配多用户场景和嵌入向量服务的后端数据服务。

AI与计算

tmcp-MCP服务器实现

基于模型上下文协议(MCP)的 Rust 实现,提供服务器端与客户端的完整 MCP 功能,包括资源、工具、提示的托管与管理,以及通过 JSON-RPC 的请求/响应处理,支持多传输通道(stdio、TCP、HTTP SSE)与会话管理,面向在 AI 应用中提供上下文与功能的后端服务。

AI与计算

vLLM.rs MCP 服务端实现

基于 Rust 的 MCP(Model Context Protocol)服务器实现,整合 vLLM.rs 引擎,提供资源托管、工具注册与执行、Prompt 模板渲染等核心 MCP 功能,通过 JSON-RPC 风格通信与 MCP 客户端协同工作,支持多种传输场景并具备会话管理能力。