返回首页

"本地LLM" 标签

16 个结果

标签搜索结果

AI与计算

token-compressor MCP 服务器

基于 Model Context Protocol 的本地提示压缩服务端,暴露 compress_prompt 工具,使用 Ollama 的 llama3.2:1b 进行文本压缩并通过 nomic-embed-text 进行嵌入验证,向 MCP 客户端提供压缩文本及相关元信息。

AI与计算

RuVector MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 RuVector 生态的一部分,负责通过标准化的 JSON-RPC 向 LLM 客户端提供上下文信息和功能。核心职责包括托管与管理 Resources(资源数据访问)、注册并执行 Tools(工具调用)、定义与渲染 Prompts(提示模板),并支持多传输协议(如 Stdio、SSE、WebSocket)。服务器端负责会话管理、能力声明与扩展性配置,适配多种客户端场景,提供安全、可扩展的上下文服务框架,支持与 RuVector 其他组件的无缝对接。

AI与计算

LingYiProject MCP 服务端

基于模型上下文协议(MCP)的后端服务器,提供资源与工具的托管、远程工具调用、提示模板管理,以及面向LLM客户端的标准化上下文服务,支持多种传输与会话管理模式。

AI与计算

FlockParse - 分布式RAG智能平台

FlockParse是一个GPU感知的分布式文档RAG系统,通过MCP协议为AI助手提供高效、本地化的文档处理和问答能力。

AI与计算

Presenton - AI演示文稿生成器

Presenton是一个开源的AI演示文稿生成器,可本地运行,集成了LLM模型和图像生成服务,并通过MCP服务器提供上下文服务。

AI与计算

Jarvis

Jarvis是一个本地AI助手,通过MCP架构集成了LLM和外部服务,当前支持使用自然语言发送Gmail邮件。

AI与计算

humanus.cpp框架

这是一个轻量级的C++框架,用于构建本地LLM Agent,集成了模型上下文协议(MCP),提供工具和记忆管理功能,可作为有效的MCP服务器实现。

数据库与文件

Wandering RAG

Wandering RAG是一个个人知识库RAG工具,它将本地Markdown文档、Notion笔记等数据存入向量数据库,并以MCP服务器形式对外提供知识检索和存储能力,为LLM应用提供个人化上下文服务。

AI与计算

CoD提示工具服务器

基于MCP协议的Chain of Draft提示工具,优化LLM推理效率并降低Token消耗,支持多种LLM模型。

AI与计算

Claude LM Studio 桥接器

连接 Claude Desktop 与本地 LM Studio,让 Claude 可以使用本地大语言模型进行文本生成和对话。

AI与计算

Deepdesk平台

企业级AI平台,支持MCP协议,用于创建、管理和部署AI Agent,安全集成企业数据和LLM。

开发者工具

Unity MCP Ollama 集成服务器

该项目实现了基于MCP协议的服务器,通过Ollama集成本地LLM,以自然语言控制Unity编辑器,实现自动化工作流程。

AI与计算

locallama mcp

LocaLLama MCP Server是一个应用后端,它利用本地LLM和付费API,根据成本、质量和速度等因素,智能地路由代码生成任务,优化LLM使用成本。

开发者工具

raglite

RAGLite是一个Python工具包,用于构建基于PostgreSQL或SQLite的检索增强生成(RAG)应用,并内置了Model Context Protocol (MCP) 服务器,可以与MCP客户端(如Claude桌面应用)连接,提供知识库检索工具。

AI与计算

Ollama Deep Researcher

Ollama Deep Researcher MCP服务器是一个基于Model Context Protocol的应用后端,它利用本地Ollama大语言模型和网络搜索API,为AI助手提供深度研究工具,并以资源形式持久化研究结果。

AI与计算

Deepseek R1 Reasoner

Deepseek R1 Reasoner MCP Server为本地LLM客户端提供基于 Deepseek R1 模型的推理规划工具,支持通过 Ollama 运行本地模型。