返回首页

"OpenAI API" 标签

11 个结果

标签搜索结果

AI与计算

openai-responses-mcp

基于 Model Context Protocol (MCP) 的轻量级后端服务器,提供对 LLM 客户端的上下文服务(资源、工具、提示等),通过 JSON-RPC 进行通信,支持以标准化方式读取资源、注册并执行工具、渲染 Prompt 模板,核心实现包含服务器端的请求/响应处理、会话管理与多传输协议支持(以 stdio 为核心的实现,具备行分隔及 Content-Length framing 方式)。

AI与计算

OpenAI 文件搜索 MCP 服务器

通过 MCP 协议提供 OpenAI 文件搜索能力的后端服务,将检索结果结构化返回给 LLM 客户端。

AI与计算

MCP聊天适配器

通过MCP协议,为LLM客户端提供连接OpenAI或兼容API的聊天能力和会话管理。

AI与计算

MCP OpenAI图像生成服务器

基于MCP协议,封装OpenAI图像生成与编辑API,提供文生图和图生图工具。

AI与计算

Super Agent Party

Super Agent Party 是一个将大型模型转化为智能代理的应用后端,支持知识库访问、互联网连接、MCP 服务调用、深度思考和深入研究,并通过 OpenAI API 或 Web/桌面应用进行访问。

AI与计算

DALL-E图像生成MCP服务器

基于MCP协议的DALL-E图像生成服务器,支持文生图、图像编辑和变体生成功能。

AI与计算

mcp servers

该项目实现了针对OpenAI模型的MCP服务器,允许LLM客户端通过标准的MCP协议调用OpenAI的Chat Completion API进行文本生成。

AI与计算

dalle image server

基于DALL·E 2的MCP服务器,通过工具接口向LLM客户端提供文本生成图像的功能。

AI与计算

DALL E Image Generation

一个基于Go语言实现的MCP服务器,通过OpenAI的DALL-E API提供图像生成工具,使LLM能够根据文本提示生成图像。

AI与计算

Ollama

Ollama MCP Server是一个桥接Ollama和MCP协议的工具,允许MCP客户端通过标准化的方式调用本地Ollama LLM模型,进行模型管理、运行和OpenAI兼容的聊天补全。

AI与计算

DeepSeek Thinker

Deepseek Thinker MCP Server是一个基于MCP协议的服务,通过Deepseek模型为LLM客户端提供推理能力,支持OpenAI API和Ollama本地部署,并提供获取Deepseek模型思考过程的工具。