返回首页

"stdio transport" 标签

6 个结果

标签搜索结果

AI与计算

Eraser MCP 服务器

基于 Model Context Protocol(MCP)的后端实现,提供工具调用、资源管理与提示模板等能力,通过 JSON-RPC 与客户端通信,并可通过多种传输(如标准输入输出)完成 MCP 会话与请求处理。

AI与计算

Neocortica MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,用于向 LLM 客户端以标准化方式提供资源、工具和提示模板等上下文服务,并通过 JSON-RPC 与客户端通信,支持多种传输方式(当前以 Stdio 为主)。它包含工具注册、任务流管理等核心能力,旨在为学术研究相关的 LLM 应用提供可扩展的上下文服务。

AI与计算

MCP Server Examples for Beginners

一个覆盖多语言实现的 MCP 服务器示例集合,展示如何使用 Model Context Protocol 构建后端以暴露资源、工具和提示模板等能力,包含从基础示例到多传输协议的完整实现与解决方案。

AI与计算

LLM Advisor 数据管理 MCP 服务

基于 Model Context Protocol (MCP) 的后端数据服务端,提供对 LLM Advisor 相关数据(决策树、案例、模型信息、工具对比等)的读取、修改与对外工具调用能力,供 MCP 客户端通过 JSON-RPC 进行交互,支持标准的输送通道(如标准输入/输出)。

网页与API

Bitbucket MCP Server

基于模型上下文协议(MCP)的后端服务器实现,提供通过 MCP 客户端以标准化 JSON-RPC 方式访问 Bitbucket Cloud 的资源、工具和提示模板,支持在 stdio 传输下与 LLM 应用对接。

AI与计算

LangChain.js MCP Server for Beginners

一个汇集了多份基于 Model Context Protocol (MCP) 的服务器实现与使用示例的学习资源库,能够通过标准化的 JSON-RPC 方式向 LLM 客户端暴露资源、工具与提示模板,支持 stdio 与 HTTP 等多种传输模式,并演示多服务器协同工作与工具调用执行流程。