返回首页

"本地推理" 标签

6 个结果

标签搜索结果

AI与计算

Synaptiq MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端服务,向大语言模型(LLM)客户端提供结构化的代码上下文、资源和工具,采用 JSON-RPC 进行请求/响应通讯,支持多传输协议并实现会话管理、能力声明与跨语言知识图谱查询等能力,适合在本地离线环境中为 AI 代理提供代码洞察与自动化工具执行能力。

AI与计算

Medsci MCP 生物医学多域后端

基于 Model Context Protocol (MCP) 的后端服务器集合,为大模型客户端提供资源管理、工具执行与 prompts 渲染等标准化上下文服务,包含药物、蛋白、组学、文献、成像、沙盒等领域服务器,以及 PaperQA 等深度分析组件的本地化实现。

AI与计算

Synaptiq MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,向 AI 客户端提供代码知识上下文、资源、工具及 Prompt 管理能力,使用 JSON-RPC 与客户端通信,支持多传输协议(StdIO/SSE/WebSocket),并在本地存储中管理知识图谱及推理相关功能。

AI与计算

Ollama MCP 服务器

将本地 Ollama API 以工具形式暴露给 Cursor、Claude Desktop 等 LLM 客户端的后端服务,提供模型管理、对话、生成与嵌入等能力的 MCP 服务端实现。

AI与计算

Roslyn MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供 Roslyn 代码分析、资源/工具/提示模板的托管与管理,并通过 JSON-RPC 规范化与 Claude 类的 LLM 客户端对接,向其提供可读的上下文信息和可执行外部功能。

AI与计算

SOTA Tracker MCP 服务器

基于 Model Context Protocol(MCP)的后端实现,提供当前最先进模型的信息、硬件感知的资源筛选、可调用的工具,以及可渲染的提示模板;通过 JSON-RPC 与客户端通信,支持多传输通道,用于在 LLM 客户端中统一提供上下文信息与能力。