基于 Model Context Protocol (MCP) 的后端服务器实现,正式提供资源、工具与提示的插件化管理,并通过 JSON-RPC 与客户端进行交互,支持多传输协议(如标准输入输出、SSE、WebSocket),为 LLM 应用提供可扩展的上下文服务。
基于模型上下文协议(MCP)的后端服务,实现资源、工具及提示模板的注册、执行与管理,提供 JSON-RPC 通信能力,便于让大语言模型客户端通过 MCP 调用 Databricks 作业等功能。
基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行,以及 Prompt 模板渲染等能力,通过 JSON-RPC 与 LLM 客户端进行规范化交互,支持多种传输与会话管理,作为 LLM 应用的上下文与功能后端。