返回首页

"任务执行" 标签

7 个结果

标签搜索结果

AI与计算

Dela-MCP 服务器实现

基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与执行、以及可渲染的提示模板等能力,通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理、能力声明及多种传输形式,便于在编辑器、IDE 等环境中以标准化方式获取上下文信息与功能。该仓库实现了完整的 MCP 服务器端逻辑,包含任务发现、任务执行、结果与日志通知等核心能力。

AI与计算

GSTD A2A MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册/执行与提示模板渲染等能力,供LLM客户端通过JSON-RPC进行统一访问与交互,支持多种传输协议(stdio、SSE、WebSocket)以实现安全、可扩展的上下文服务。

AI与计算

Climux MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供对外暴露的工具、资源与提示模板,通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多种传输方式,作为 LLM 客户端的上下文与功能提供者。

AI与计算

Union MCP Server

Union MCP Server是一个基于Model Context Protocol的服务器,旨在将Union AI的任务、工作流和应用作为工具提供给LLM客户端,实现对Union AI计算能力的便捷访问和调用。

开发者工具

Autono MCP Agent Framework

Autono框架通过MCP协议集成外部工具,构建可扩展的自主 агентов,实现复杂任务处理。

开发者工具

Gradle MCP Server

一个MCP服务器,允许AI工具通过Gradle Tooling API与Gradle项目进行交互,实现项目信息查询、任务执行和测试运行等功能。

开发者工具

PET-P

PET-P 是一个可配置的 RPA 工具包,可以作为 MCP 服务器为 LLM 客户端提供上下文信息和工具服务。