返回首页

"服务器实现" 标签

7 个结果

标签搜索结果

AI与计算

Koharu MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 Koharu 项目的后端“上下文服务网关”,通过 JSON-RPC/流式接口向 LLM 客户端提供对资源、工具和提示等的访问与执行能力,便于将 Koharu 的对象检测、OCR、翻译/翻译后处理、以及文本渲染等功能以统一的 MCP 形式暴露给外部代理或智能体。该实现包含服务器核心逻辑、资源/工具路由及对外提供的信息接口,支持通过网络与本地进程协作。

AI与计算

Haira MCP Server

Haira 的 MCP 服务器实现,基于 Model Context Protocol(MCP)提供资源与工具的管理、以及将工作流暴露为外部工具的能力,服务器通过 JSON-RPC 与客户端通信,支持多种传输方式(如标准输入输出stdio 和 SSE),并与 Haira 内部运行时紧密集成以实现对上下文、工具执行和提示模板的标准化服务。

AI与计算

Nano-Coder MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具注册与执行、以及 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端通信以支持多种传输协议。

网页与API

Avanza MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 Avanza 公共市场数据的资源、工具与提示模板,通过 JSON-RPC 与 LLM 客户端交互,支持资源管理、工具注册与提示渲染,便于构建可扩展的上下文服务。

AI与计算

Raku MCP SDK

基于 Model Context Protocol (MCP) 的完整服务器端实现与示例,提供 JSON-RPC 2.0 交互、Stdio/HTTP 等传输、资源/工具/提示的管理,以及会话与扩展能力,面向将 MCP 服务化以供 LLM 客户端调用的后端应用。

AI与计算

Kaizen Health Sentinel MCP 服务器

基于 Model Context Protocol (MCP) 的 JSON-RPC 服务器实现,提供健康监控、健康态势证据 attestations、全局与回声脉冲等工具与资源接口,供 LLM 客户端通过 MCP 协议读取资源、执行工具、获取健康信息并提交证据。

AI与计算

LLxprt-MCP Server(简化实现,面向集成测试)

基于 Model Context Protocol 的 MCP 服务器实现,用于向 LLM 客户端提供上下文信息、工具调用通道与 Prompts 渲染等功能;核心通过 JSON-RPC 与客户端通信,示例实现包含最小化的服务器以支持集成测试场景。