返回首页

"JSON-RPC 服务端" 标签

7 个结果

标签搜索结果

AI与计算

Phil-AI MCP 服务端

基于 Model Context Protocol 的后端服务器,实现对工具的注册与执行、以及面向大语言模型客户端的上下文管理能力,核心通过 JSON-RPC 进行工具查询与调用,提供以标准化方式对外暴露的 MCP 服务入口。

AI与计算

rs-hack MCP 服务器端

基于 Model Context Protocol (MCP) 的 JSON-RPC 服务器实现,提供对 rs-hack 工具集合的远程调用能力,支持通过标准输入输出进行 JSON-RPC 请求/响应通信,核心职责包括注册并执行工具、初始化协商、以及向客户端提供工具列表与执行结果等能力(便于与 LLM 客户端进行上下文查询与外部功能调用)。

AI与计算

Aurelm MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供资源管理、工具注册与执行、以及 Prompt 模板渲染,供 LLM 客户端通过 JSON-RPC 调用获取上下文信息与功能。

网页与API

Docebo MCP 服务器端

基于 Model Context Protocol (MCP) 的后端服务,将 Docebo Learning Platform API 通过 MCP 提供给 Claude、Cursor 等 MCP 客户端,支持资源、工具、提示模板的统一管理与执行,并通过 JSON-RPC 与客户端通信,具备会话管理、认证代理和可扩展传输协议支持。

AI与计算

WebMCP 服务器端实现(浏览器上下文模型管理协议服务端)

基于 Model Context Protocol 的服务端实现,提供对工具注册与执行、会话管理、以及跨传输协议的 MCP 服务能力,能够通过 STDIO 与浏览器扩展/WebSocket 客户端进行交互,向大型语言模型(LLM)客户端暴露浏览器工具、标签页控制和页面上下文能力。

网页与API

AI Dataset Radar MCP Server

基于 Claude Desktop 的 MCP 服务器实现,提供资源管理、工具调用与提示模板渲染等能力,遵循 MCP 协议通过 JSON-RPC 与客户端通信,并通过标准化的传输(如标准输入输出)供 LLM 客户端安全、可扩展地获取数据上下文与功能。该实现包含服务器端工具注册、工具执行与对接客户端的最小示例,核心工具涵盖数据扫描、摘要、数据集与研究相关输出等。

AI与计算

Claude Team MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供多智能体协作、资源与工具管理、Prompts 定义与渲染等能力,并通过 JSON-RPC 与客户端通信(当前实现以 Stdio 传输为主)。该服务器承担会话管理、能力声明、工具注册与执行、以及任务编排等核心职责,支持扩展的工具集和工作流模板,适合为 LLM 客户端提供标准化的上下文服务。 jovens