返回首页

"OpenAI 集成" 标签

9 个结果

标签搜索结果

AI与计算

Neural Kitchen MCP 服务器

基于 Model Context Protocol (MCP) 的独立后端服务,提供资源管理、工具注册与执行,以及提示模板的读取与渲染能力,供大语言模型客户端通过标准化的 JSON-RPC 方式获取上下文信息与外部功能。该实现包含独立的 MCP 服务器、工具注册、HTTP 路由(健康检查与请求处理)以及与向量检索、任务队列等后端组件的整合。

AI与计算

MCP Factory

基于 MCP 的后端生成与托管框架,能够从 Windows 二进制/脚本等自动生成符合 MCP 标准的服务器,提供资源托管与数据访问、工具注册与调用,以及 Prompt 模板渲染等能力,并通过 HTTP/JSON-RPC 与 LLM 客户端进行安全、可扩展的上下文服务交互。

AI与计算

LFX Changelog MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,向 LLM 客户端以标准化方式提供资源、工具和提示模板,支撑 AI 生成与上下文管理。

AI与计算

GlassBox AI MCP 服务器

基于 Model Context Protocol (MCP) 的多代理信任与辩论后端实现,提供资源管理、工具执行与提示渲染等能力,支持与 MCP 客户端通过 JSON-RPC 进行交互。

AI与计算

Deepxiv MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具与提示模板的标准化上下文服务,通过 JSON-RPC 与 LLM 客户端通信,支持通过标准传输(如 stdio)启动并对接外部数据服务与工具调用。

AI与计算

AILSS MCP 服务器

基于 Model Context Protocol(MCP)的服务器实现,为 Obsidian 知识库提供资源、工具、提示模板等统一访问接口,通过 JSON-RPC 与客户端通信,支持 STDIO 与本地 HTTP 传输,并与本地向量检索索引数据库协同工作。

AI与计算

Abstracts Explorer MCP Server

基于 MCP(Model Context Protocol)协议的后端服务器,向 LLM 客户端提供统一的上下文资源、可注册执行的工具以及可渲染的提示/模板,支持 JSON-RPC 通信、多种传输协议,以及会话管理与能力声明,便于在聚类分析、语义检索和论文上下文中为大语言模型提供可扩展的 contexto 服务。

AI与计算

Fred MCP 服务器实现套件

基于 Fred 平台的 MCP 服务器实现,提供以标准化方式向大语言模型客户端提供资源、工具、提示模板等上下文与能力的后端服务,并通过 JSON-RPC/多传输通道进行通信。包含知识流后端的完整 MCP 服务、以及用于快速演示的最小 MCP 服务器示例和相应部署示例。

AI与计算

HMLR Memory MCP 服务器(Go 实现)

基于 Model Context Protocol 的内存后端服务器,提供资源管理、工具执行与提示渲染等 MCP 功能。通过标准的 JSON-RPC 风格接口与客户端通信,内部实现了会话管理、主题路由、向量检索、事实抽取等能力,并通过标准输入输出(STDIO)提供 MCP 服务,适配 Claude Code 等 MCP 客户端进行上下文管理与外部功能调用。