返回首页

"模型上下文接口" 标签

6 个结果

标签搜索结果

AI与计算

Phil-AI MCP 服务端

基于 Model Context Protocol 的后端服务器,实现对工具的注册与执行、以及面向大语言模型客户端的上下文管理能力,核心通过 JSON-RPC 进行工具查询与调用,提供以标准化方式对外暴露的 MCP 服务入口。

网页与API

Tavily MCP 服务端实现(多传输、工具与 API 集成)

基于 Model Context Protocol 的 MCP 服务器实现,提供工具注册、API 访问、Prompts/输出渲染能力,并通过 JSON-RPC 与 LLM 客户端通信,支持 STDIO 与 SSE 等传输方式,以为大语言模型提供标准化的上下文与外部功能访问。

AI与计算

LightCMS MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供资源、工具、提示模板等 MCP 服务能力,并通过JSON-RPC支持stdio与HTTP流式传输,与AI客户端进行资源访问、功能调用与对话模板渲染。

网页与API

FinanceServer MCP 后端

基于 Deno 的 MCP(模型上下文协议)服务端实现,提供用于 LLM 客户端的上下文资源、工具调用与提示模板等能力,支持多场景的 MCP 会话(如全局、账单/支出等),通过 JSON-RPC/流式传输与客户端进行交互,具备会话管理、能力声明以及多种传输协议的支持。该仓库不仅实现服务器端路由与会话,还对接了数据库、OAuth、以及 MCP 服务实例化等核心组件,形成完整的 MCP 服务端框架。

AI与计算

Climux MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供对外暴露的工具、资源与提示模板,通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多种传输方式,作为 LLM 客户端的上下文与功能提供者。

AI与计算

Pane MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,用于向 MCP 客户端提供资源访问、工具执行以及可自定义的提示/交互界面,在本地通过标准输入输出(stdio)进行通信,并辅以 WebSocket/HTTP 提供前端 UI。该服务端在实现中包含状态机驱动的文本/Markdown显示、单字段及多字段输入、用户上下文持久化以及会话管理等能力,适合作为面向 AI 客户端的上下文服务后端。