返回首页

"语言模型集成" 标签

17 个结果

标签搜索结果

AI与计算

tt-decomp Phase5 MCP 服务器

基于 Model Context Protocol(MCP)的服务器实现,面向 RockStar Table Tennis 的反汇编/去编译数据,提供资源管理、工具注册与执行、以及 Prompt 模板相关上下文服务,支持通过 JSON-RPC 与客户端(LLM)交互并可扩展传输通道。当前实现包含完整的 MCP 服务端代码、工具集定义与服务器启动逻辑,用于向 LLM 客户端暴露资源、工具和数据等能力。

AI与计算

Cortex MCP 服务器

Cortex 的 MCP 服务器实现,向 MCP 客户端以标准化的 JSON-RPC 方式暴露工具与对话能力,并通过内置的 Agent 引擎实现对话上下文管理与工具调用。

AI与计算

Agents Backend MCP 服务器实现

基于 Model Context Protocol(MCP)的服务器实现,用于向 LLM 客户端以标准化方式暴露资源、工具以及 Prompt 模板等上下文服务,支持通过多种传输协议与客户端通信,负责会话管理与能力声明,并可与 LangGraph 生态整合进行工具发现与执行。

开发者工具

Tune

Tune是一个基于文本文件的AI聊天和自动化框架,通过统一的上下文协议(MCP)提供资源管理、工具调用和Prompt模板渲染服务。

AI与计算

c4 GenAI Suite

一个功能丰富的AI聊天应用套件,通过其内置的Model Context Protocol (MCP) 服务器代理,能够集成并标准化外部MCP服务,同时提供RAG、多LLM支持和可扩展的助手功能。

开发者工具

Claude Python SDK:内嵌式MCP工具服务器

一个用于构建Python应用的SDK,可创建和托管在应用内部运行的MCP工具服务器,使LLM能调用自定义Python函数作为工具。

开发者工具

Motoko MCP 服务器脚手架

这是一个命令行工具,用于快速生成基于Motoko语言、遵循Prometheus协议的生产级MCP服务器项目。

开发者工具

Blaxel MCP Hello World 服务器示例 (TypeScript)

一个简单的TypeScript MCP服务器模板,演示了如何使用Blaxel平台创建并运行MCP工具。

开发者工具

TypeSpec MCP 开发服务器

基于TypeSpec辅助构建和管理MCP服务器及工具的开发用MCP服务器。

AI与计算

CHUK MCP Runtime

灵活的框架,用于托管本地AI工具、管理上下文信息,并代理远程服务,为LLM客户端提供统一接口。

AI与计算

Ash AI

基于Ash框架,为LLM提供应用功能调用、数据上下文及向量搜索能力的MCP服务器。

AI与计算

Python MCP 服务器示例

一个使用 Python 及其 MCP SDK 构建的 Model Context Protocol (MCP) 服务器基础示例。

AI与计算

Prolog-MCP 服务器

一个基于 MCP 协议的 AI 后端,允许 LLM 通过工具调用执行 Trealla Prolog 程序和查询,支持会话持久化。

开发者工具

Scratch MCP Ruby 实现

使用 Ruby 实现的 MCP 服务器基础框架与示例,支持生命周期管理和工具调用。

AI与计算

Space Frontiers MCP Server

为语言模型提供访问 Space Frontiers 数据的 MCP 服务器,支持关键词和语义搜索工具。

开发者工具

CodeQL MCP Server

CodeQL MCP Server是一个基于Model Context Protocol的服务器,它将CodeQL查询服务器封装成MCP工具,允许LLM客户端通过标准化的MCP协议与CodeQL进行交互,实现代码分析和查询功能。

桌面与硬件

home assistant model context protocol

Home Assistant Model Context Protocol集成在家庭助理中实现MCP服务器,通过WebSocket为LLM客户端提供Home Assistant的功能调用和Prompt服务。