标签搜索结果
本仓库实现了一个基于 Model Context Protocol(MCP)的后端服务器,用于向大语言模型(LLM)客户端以标准化方式提供上下文信息、资源、工具和提示模板的管理与执行能力。通过 JSON-RPC 与客户端通信,服务器支持资源/工具的注册与执行、提示模板渲染以及会话管理,底层可通过多种传输协议(如 HTTP)与前端或代理进行对接,适合在云环境中提供可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的服务端实现,提供 rcaptcha_get_challenge 与 rcaptcha_submit 两个工具,方便大模型代理在两步挑战中证明自己是 AI,从而获取访问令牌。