返回首页

"语言模型" 标签

18 个结果

标签搜索结果

AI与计算

Emend MCP 服务端

基于 Model Context Protocol (MCP) 的服务器端实现,提供资源管理、工具注册及提示模板等能力,通过 JSON-RPC 与 LLM 客户端通信,支持多传输协议(stdio、SSE、WebSocket),为 LLM 应用提供可扩展的上下文服务和代码重构能力。

开发者工具

QuickMCP: OpenAPI/Discovery转MCP服务器

用.NET轻松构建和运行基于OpenAPI/Google Discovery的MCP服务器。

AI与计算

数字孪生MCP服务器

一个基于MCP协议的数字孪生后端服务,具备模拟个性、管理记忆和自主进化的能力。

通信与社交

MCP Gmail服务器

MCP Gmail服务器是一个基于模型上下文协议(MCP)的后端服务,为大型语言模型提供访问和操作Gmail邮箱的能力。

开发者工具

K8s MCP Server

K8s MCP Server 是一个安全桥梁,连接语言模型和Kubernetes CLI工具,让语言模型能够安全地执行和管理Kubernetes集群操作。

AI与计算

Mistral MCP 适配器

一个连接 Mistral AI 大模型与 MCP 客户端的适配器,支持 Claude Desktop 等 MCP 应用,提供对话功能。

生产力应用

Todoist任务管理MCP服务器

一个连接语言模型与Todoist的MCP服务器,支持通过自然语言进行任务管理,如创建、查询、更新和完成任务。

开发者工具

LeanTool

LeanTool MCP服务器是一个基于Model Context Protocol的应用后端,为LLM客户端提供Lean代码检查工具,支持通过MCP协议进行交互,辅助LLM进行Lean定理证明和代码生成。

AI与计算

mcp servers

该项目实现了针对OpenAI模型的MCP服务器,允许LLM客户端通过标准的MCP协议调用OpenAI的Chat Completion API进行文本生成。

AI与计算

mcp server openai

通过MCP协议连接OpenAI,为LLM客户端提供访问OpenAI模型能力。

AI与计算

perplexity mcp server

Perplexity MCP Server 是一个Node.js实现的MCP服务器,它允许 Claude 等 MCP 客户端通过工具调用 Perplexity AI 的强大语言模型,实现聊天对话和快速提问等功能。

AI与计算

Deepseek

将Deepseek模型接入Claude Desktop的MCP服务器,支持通过工具调用Deepseek的语言模型能力。

AI与计算

DeepSeek R1 Reasoning

DeepSeek MCP Server通过集成DeepSeek R1的推理能力,为Claude等LLM客户端提供高级推理工具,增强其复杂问题解决能力。

AI与计算

OpenAI

OpenAI MCP Server是一个轻量级服务器,允许您通过MCP协议从Claude等LLM客户端直接查询OpenAI模型,实现工具调用。

AI与计算

DeepSeek MCP Server

DeepSeek MCP Server 是一个基于 Model Context Protocol 的服务器,它将 DeepSeek API 封装成 MCP 接口,使得 Claude Desktop 等 MCP 客户端可以便捷地使用 DeepSeek 的强大语言模型,并支持模型选择、参数配置和多轮对话等功能。

AI与计算

Gemini Server

基于MCP协议的Gemini服务器,连接Claude Desktop与Gemini AI模型,提供文本生成服务。

桌面与硬件

Home Assistant Server

Home Assistant MCP Server是一个桥接Home Assistant智能家居平台和大型语言模型的应用后端,通过Model Context Protocol协议,实现对智能设备和自动化场景的自然语言控制。

AI与计算

OpenAI MCP Server

OpenAI MCP Server 是一个 MCP 服务器,允许 Claude 等客户端通过 ask-openai 工具调用 OpenAI 的 o3-mini 和 gpt-4o-mini 模型进行问答。