基于 Model Context Protocol(MCP)的 Alfanous MCP 服务器,将 Quranic 搜索引擎的资源、工具与提示模板以标准化的 MCP 服务形式对外暴露,供 AI 助手通过 MCP 客户端进行上下文查询与交互。
基于 Model Context Protocol (MCP) 的后端服务,提供资源(Resources)托管与管理、工具(Tools)的注册和执行、以及 Prompt 模板的定义与渲染,面向大语言模型(LLM)客户端,通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议(如 StdIO/SSE/WebSocket)的上下文服务框架。
基于 Model Context Protocol 的服务端实现,作为 MCP 后端为 LLM 客户端提供资源、工具与提示模板的标准化上下文服务,并通过 JSON-RPC 与客户端进行通信,支持多种传输方式(此实现以标准输入输出为传输层)。
基于 Model Context Protocol (MCP) 的服务器实现,用于向 LLM 客户端提供塔罗牌解读工具(Tools)以及可扩展的上下文资源支持;通过 JSON-RPC 形式暴露操作,如生成牌阵(drawSpread)并记录解读(logReading),适合作为 LLM 的外部功能提供者与上下文后端。
基于 MCP 协议,该仓库实现了连接闪电网络节点 LND 的 MCP 服务器,为 AI 应用提供安全的 LND 命令执行能力。