返回首页

"资源与工具暴露" 标签

6 个结果

标签搜索结果

AI与计算

wt-tools MCP 服务器实现

基于 Model Context Protocol(MCP)的后端服务器实现,作为 wt-tools 生态的一部分,向 LLM 客户端提供标准化的上下文信息与功能接口。核心能力包括托管与管理 资源(Resources,如工作树、Ralph 循环状态、团队活动等)、注册并执行 Tools、以及定义/渲染 Prompt 模板等,所有交互通过 JSON-RPC 协议完成,并支持多种传输方式(如 STDIO)。

开发者工具

Kubani MCP 服务器端

基于 Model Context Protocol(MCP)的 Kubani 服务器端实现,提供资源与工具的暴露、MCP 的工具调用,以及对外提供的服务器能力声明,支持通过标准的 JSON-RPC 进行客户端请求与响应,适配多种传输方式(如 Stdio、SSE 等)以向 LLM 客户端提供上下文与功能服务。

AI与计算

amdWiki MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,向大语言模型客户端提供对 amdWiki 内容、资源、工具和提示模板的上下文化访问,并通过 JSON-RPC 进行通信与能力声明

AI与计算

workz 服务器端 MCP 实现

基于 Model Context Protocol (MCP) 的服务器实现,为 AI 客户端提供对 Workz 的资源、工具与提示模板等上下文信息,采用 JSON-RPC 2.0 通过标准输入输出(stdio)进行通信,核心功能包括管理工作树、同步依赖、以及暴露用于 AI 调用的工具集。

AI与计算

Claude MCP 服务器实现集(Databricks DevTools 与 Conversation Memory)

基于 Model Context Protocol (MCP) 的服务器实现集合,提供将工具、资源和对话记忆等能力暴露给 LLM 客户端的服务端组件。仓库中包含至少两个完整的 MCP 服务器实现(Databricks DevTools 与 Conversation Memory),采用 JSON-RPC 通信、支持标准化的工具注册与调用、并通过 stdio 传输与客户端交互,适配插件化的后端能力管理场景。

AI与计算

CodeRAG MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具和提示模板的注册与暴露,供 LLM 客户端通过 JSON-RPC 与之通信,从而向客户端提供可验证的代码上下文、外部功能调用与自定义提示渲染能力,并支持流式传输的 MCP 应用接口。