返回首页

"LLM 上下文提供" 标签

6 个结果

标签搜索结果

AI与计算

claudit MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,向大语言模型客户端提供 Solodit 安全审计 Findings 的资源、工具和提示模板等上下文信息,以 JSON-RPC 形式进行交互。

网页与API

linear-mcp-rs

基于 Model Context Protocol (MCP) 的 Rust 后端服务器实现,与 Linear API 集成,提供资源、工具和提示模板的上下文服务,通过 JSON-RPC 与 LLM 客户端通信(当前实现使用标准输入/输出传输)。

网页与API

Containarium MCP Server

基于 Model Context Protocol (MCP) 的后端实现,用于向大语言模型(LLM)客户端提供上下文信息、资源与工具的管理接口,并通过 JSON-RPC 客户端与 Claude Desktop 等 MCP 客户端进行交互。仓库中包含服务器端实现、MCP 集成入口和相关文档,支持通过 stdin/stdout 的 MCP 服务器流、以及通过命名配置实现多传输协议,具备会话管理、能力声明与资源/工具/模板的分发能力等特性。

网页与API

Buttondown 上下文服务后端

基于 Buttondown API 的 MCP 风格后端服务,为大语言模型客户端提供资源访问、工具调用和上下文渲染等能力。通过 JSON-RPC 与客户端通信,支持多种传输方式(如标准输入输出、SSE、WebSocket),实现对 Buttondown 邮件、订阅者等数据的安全、可扩展访问。

AI与计算

axel-backend

基于模型上下文协议(MCP)的后端实现,提供资源(Resources)托管、工具(Tools)注册与执行,以及 Prompts 定义与渲染,并通过 SSE/stdio 等传输方式与 LLM 客户端以 JSON-RPC 风格进行通信的完整 MCP 服务器实现。

AI与计算

Fathom MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册与执行、会话管理、资源与提示结构的扩展能力,并通过 OAuth 授权安全地将 Fathom 数据(会议、转录、摘要等)暴露给大语言模型客户端进行上下文服务。