返回首页

"OpenAI" 标签

31 个结果

标签搜索结果

网页与API

eMed MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册与执行、知识库检索、线索保存等功能,供大语言模型 (LLM) 客户端通过 JSON-RPC 与 MCP 服务进行资源访问、工具调用与提示渲染。

AI与计算

OpenAI SDK Knowledge MCP 服务器

基于 MCP 标准的后端服务器,提供资源、工具与提示模板的注册、读取与执行,并通过 JSON-RPC 与客户端进行通信,支持在 Cloudflare Worker 环境中运行,面向 LLM 客户端提供标准化的上下文与能力服务。

AI与计算

Directory Indexer MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对本地目录的语义检索、索引管理与工具调用能力,支持通过 MCP 客户端以 JSON-RPC 方式交互。

AI与计算

AppKit MCP 服务器实现

基于 Model Context Protocol 的服务器端实现,提供面向大语言模型客户端的资源、工具和提示模板等上下文服务。仓库内包含多个并行的 MCP 服务端模块(如用户管理、图表、BPMN、图像生成等),通过 JSON-RPC 形式与客户端通信并支持多种传输通道(如 SSE、WebSocket/流式传输等)。该实现集成于 Reflex 应用之中,提供会话管理、能力声明和安全特性,能够作为后端 MCP 服务提供者供 LLM 客户端调用和上下文获取。

AI与计算

Open Brain MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供可通过 JSON-RPC 调用的工具集(捕获、语义检索、按人/按主题检索、最近条目、统计与删除等),并支持 OAuth 授权发现、向量化检索、以及通过 PostgreSQL + pgvector 的数据存储与 Embedding 能力。仓库内同时提供 Node.js/Next.js 版本的 MCP 服务路由以及本地 Python 实现两种运行方式,适合作为面向 LLM 客户端的上下文服务后端。

AI与计算

Sub Bridge MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,提供资源管理、工具注册与执行、以及 Prompts 定义与渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行通信,同时集成对 OpenAI/Claude API 的代理访问能力,面向 Cursor 等前端实现上下文服务。

AI与计算

eShopMCP SSE Server

基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册、资源管理、提示模板渲染等能力,并通过 SSE 传输实现与 MCP 客户端的通信,用于在 LLM 客户端侧获取上下文、执行工具与获取 Prompts。

网页与API

RSSMonster MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,作为 RSSMonster 应用的 MCP 服务端,向大型语言模型(LLM)客户端提供资源访问、工具执行和提示模板渲染能力。服务器通过 JSON-RPC 与客户端通信,提供对 RSS/文章、分类、订阅等资源的托管与管理,注册并执行工具以调用外部功能,以及渲染与自定义提示模板,且具备会话管理和能力声明,支持通过 HTTP(以及未来扩展的传输协议)进行多路传输。核心实现包含完整的服务端路由、数据库模型、MCP 工具集以及与 AI 相关的分析能力。

AI与计算

OpenAI GPT-Image-1 MCP 服务器

用于通过MCP协议调用OpenAI GPT-Image-1模型生成和编辑图像的服务器。

AI与计算

PR Review MCP 服务器

提供通过MCP协议调用的大模型代码评审服务,自动分析GitHub PR差异并生成Markdown评审报告。

AI与计算

Image Generation MCP 服务器

通过 MCP 协议为 LLM 客户端提供基于 OpenAI API 的图片生成功能。

AI与计算

文档搜索MCP服务器

一个为 Claude 提供的 MCP 服务器,支持检索 LangChain, LlamaIndex, OpenAI 等库的文档,提升 Claude 的上下文理解能力。

AI与计算

Azure OpenAI MCP示例服务器

演示如何使用MCP协议与Azure OpenAI集成,提供工具注册和调用的基本MCP服务器功能。

通信与社交

语音呼叫MCP服务器

voice-call-mcp-server 是一个基于 Model Context Protocol 的服务器,它使 AI 助手能够通过 Twilio 和 OpenAI 发起和管理语音呼叫,实现AI语音通话能力。

开发者工具

OpenAI MCP 示例服务器

一个展示如何使用 MCP 协议与 OpenAI API 交互的简单示例 MCP 服务器,支持工具注册和调用。

通信与社交

语音呼叫MCP服务器

一个基于MCP协议实现的语音呼叫服务器,允许AI助手通过Twilio和OpenAI发起和管理电话呼叫。

AI与计算

R2D2 数据分析助手服务器

R2D2 服务器提供数据查询和分析后端服务,支持连接 Dune Analytics 和 OpenAI,帮助用户通过自然语言查询区块链数据并可视化。

AI与计算

Think-MCP服务器

Think-MCP 是一个基于 Model Context Protocol (MCP) 的服务器实现,提供深度思考工具,利用 OpenAI 的 o3-mini 模型增强 LLM 的推理能力。

网页与API

4o Mini Search MCP Server

基于MCP协议的轻量级服务器,通过OpenAI 4o-mini-search模型或OpenRouter.ai为AI客户端提供网页搜索能力,降低AI应用成本。

AI与计算

Chat Summary MCP Server

一个基于MCP协议的服务器,使用OpenAI API总结聊天记录,为LLM客户端提供便捷的会话总结功能。

AI与计算

LSPD审讯模拟MCP服务器

基于Model Context Protocol (MCP) 构建的警察审讯模拟服务器,使用OpenAI生成审讯对话和嫌疑人回应,提供警官信息和审讯流程管理等资源。

网页与API

OpenAI 网页搜索 MCP 服务器

一个基于 Model Context Protocol 的服务器,为 LLM 提供通过 OpenAI API 进行网页搜索的能力,支持多种搜索模式和参数配置。

AI与计算

Ai platform

Ai-platform仓库实现了一个基于Model Context Protocol (MCP) 的服务器,通过标准化的JSON-RPC接口,向LLM客户端提供OpenAI的文本生成和代码分析工具。

AI与计算

any chat completions mcp

该项目是一个MCP服务器,它将任何兼容OpenAI SDK的聊天补全API(如OpenAI、Perplexity、Groq等)集成为一个工具,使得MCP客户端可以调用这些API进行对话。

AI与计算

mcp server openai

通过MCP协议连接OpenAI,为LLM客户端提供访问OpenAI模型能力。

AI与计算

mcp openai

mzxrai_mcp-openai 是一个 MCP 服务器,它使 Claude 能够调用 OpenAI 的语言模型,如 gpt-4o,扩展 Claude 的能力,实现跨模型平台的功能集成。

网页与API

mcp playground

该仓库提供了一个基于Model Context Protocol (MCP) 的天气服务器示例,以及一个使用OpenAI模型作为MCP客户端主机的示例,演示了如何通过MCP协议调用工具获取天气预报。

AI与计算

Vercel AI

Vercel AI MCP Server 是一个基于 Model Context Protocol 的后端实现,它利用 Vercel AI SDK,集成了 OpenAI 和 Mistral 模型,为 LLM 应用提供文本生成和结构化数据生成工具。

AI与计算

OpenAI Chat Completions

OpenAI MCP Server为LLM客户端提供通过Model Context Protocol协议调用OpenAI o1-preview模型进行文本对话补全的能力。

AI与计算

OpenAI

OpenAI MCP Server是一个轻量级服务器,允许您通过MCP协议从Claude等LLM客户端直接查询OpenAI模型,实现工具调用。

AI与计算

OpenAI MCP Server

OpenAI MCP Server 是一个 MCP 服务器,允许 Claude 等客户端通过 ask-openai 工具调用 OpenAI 的 o3-mini 和 gpt-4o-mini 模型进行问答。