返回首页

"LLM 辅助" 标签

5 个结果

标签搜索结果

AI与计算

openllm-func-call-synthesizer MCP 服务端实现

基于 Model Context Protocol 的 MCP 服务端实现,提供资源管理、工具注册与执行,以及基于模板的 Prompt 渲染等能力,配合示例服务器实现了完整的后端工具链与测试用例,适用于向 LLM 客户端暴露标准化的上下文与功能。

开发者工具

Dokploy Docs MCP Server

基于 Model Context Protocol (MCP) 的 Dokploy 文档服务器实现,向大语言模型客户端提供 Dokploy REST API 参考、指南与搜索能力等文档资源。通过 JSON-RPC 的工具与资源暴露文档内容,并以 stdio 传输实现服务器端与客户端的交互。

网页与API

Peeky-MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务,提供可被大语言模型(LLM)客户端调用的上下文能力与工具,核心功能包含资源管理、工具注册与执行,以及基于模板的 Prompt 渲染。该实现通过 JSON-RPC 形式暴露工具,支持 STDIO 传输,能够为 LLM 客户端提供网页证据检索、页面 excerpts 提取等能力,方便在对话中注入可验证的上下文信息。

网页与API

Keywords Everywhere MCP 服务器

基于 Model Context Protocol(MCP)的服务器实现,提供 Keywords Everywhere API 的资源、工具以及提示模板,供大语言模型客户端通过 JSON‑RPC 调用获取关键字数据、域名分析、流量、反向链接等信息。该实现包含可运行的服务端代码、MCP 传输支持和工具注册,可自托管或使用托管端点。

AI与计算

MCP-Think: 思考工具服务器

MCP-Think 是一个实现了思考工具的 MCP 服务器,允许 LLM 记录和检索思考过程,辅助复杂推理和问题解决。