返回首页

"LLM 上下文" 标签

21 个结果

标签搜索结果

AI与计算

Aura MCP Server(Rust实现)

Aura 是基于 Rust 的 MCP 服务器实现,提供资源、工具和提示的标准化管理与执行,并通过 JSON-RPC 在标准输入输出等传输下与 LLM 客户端通信,支持多种传输协议以提供可扩展的上下文服务。

AI与计算

Sardis MCP 服务器

基于 Model Context Protocol (MCP) 的服务器实现,向大型语言模型客户端提供标准化的上下文资源、工具执行和可渲染的提示模板,采用 JSON-RPC 的通信方式,并支持多传输协议接入与会话管理,旨在为 LLM 应用提供安全、可扩展的上下文服务框架。

AI与计算

Cox's Bazar AI Itinerary MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,用于为大语言模型(LLM)客户端提供可上下文化的资源、工具和提示渲染,通过 JSON-RPC 形式进行通信,支持天气数据获取、行程生成与旅行提示等功能。

开发者工具

Omen MCP 服务器端

基于 Model Context Protocol (MCP) 的服务器实现,向 LLM 客户端暴露资源、工具以及 Prompt 模板等分析能力,支持多种传输方式并提供会话与能力声明等 MCP 核心功能。

AI与计算

SkillKit Memory MCP 服务器

基于 Model Context Protocol 的 MCP 服务端实现,提供内存资源与工具访问能力供大模型客户端读取和写入记忆、执行内存相关操作以及与技能系统对接。

AI与计算

tx MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)托管与访问、工具(Tools)注册与执行、以及 Prompt 模板的自定义渲染,使用 JSON-RPC 与客户端通信,支持会话管理、能力声明并可通过多种传输协议(如 Stdio、SSE、WebSocket)对外暴露上下文服务,适用于让 LLM 客户端按统一协议获取上下文与外部功能。

AI与计算

OpenCode Spec Kit MCP 服务器框架

基于 Model Context Protocol (MCP) 的服务器实现框架,提供资源管理、工具注册与执行、Prompt 模板渲染,以及多传输协议支持,面向大模型客户端提供标准化的上下文与功能服务。

开发者工具

TemPad Dev MCP 服务器

基于模型上下文协议(MCP)的后端服务实现,提供资源管理、工具执行与提示模板渲染等能力,并通过 JSON-RPC 与客户端通信。实现了服务器端的工具注册与执行、资源导出与资产管理、以及对 Prompts/模板的支持,支持多传输协议(如标准输入/输出、SSE、WebSocket 等),用于为大模型/LLM 客户端提供标准化的上下文服务与能力暴露。

生产力应用

TaskNote Bridge Swift MCP 服务器

将 Apple Notes 和 Things 3 集成到大语言模型客户端的 MCP 服务器。

商业系统

仓库订单管理 MCP 服务端示例

基于 FastAPI 和 fastapi-mcp 库实现的仓库订单管理 MCP 服务器示例,通过 MCP 协议提供订单管理能力。

AI与计算

OpenAI 文件搜索 MCP 服务器

通过 MCP 协议提供 OpenAI 文件搜索能力的后端服务,将检索结果结构化返回给 LLM 客户端。

AI与计算

Alation 数据目录 MCP 服务器

将 Alation 数据目录的元数据和功能以标准 MCP 协议暴露给 LLM 客户端的应用后端。

开发者工具

ldbc 文档 MCP 服务器

为LLM客户端提供ldbc数据库访问库的文档和教程上下文。

开发者工具

DeepWiki MCP 服务器

提供DeepWiki开源项目文档内容的MCP服务器,支持检索和获取特定页面内容。

开发者工具

ui-kit.ai 组件库 MCP 服务器

基于 MCP 协议,为 LLM 客户端提供 ui-kit.ai 组件库的元数据及使用示例。

网页与API

笑话 MCP 服务器

基于MCP协议的示例服务器,提供多种笑话API调用服务,可集成到LLM应用。

数据库与文件

Filesys MCP 文件系统服务器

提供一个 MCP 服务器,允许 LLM 客户端安全地访问和列出本地文件系统中的文件。

开发者工具

Mastra Playwright MCP on AWS

使用 AWS CDK 部署 Mastra Agent 和 Playwright MCP 服务器,实现基于云端的浏览器自动化和 LLM 上下文服务。

AI与计算

PydanticAI API 模板 MCP 服务器

基于 FastAPI 和 PydanticAI 的 API 模板,内置 MCP 服务器,为 LLM 应用提供工具和上下文服务。

AI与计算

EventCatalog MCP Server

为 EventCatalog 提供 MCP 接口,支持 Claude、Cursor 等 MCP 客户端访问 EventCatalog 的架构文档和信息。

桌面与硬件

winshot mcp

winshot-mcp 是一个 MCP 服务器,为 LLM 提供窗口截图功能,使 LLM 能够获取和分析应用程序的用户界面。