返回首页

"Prompt工程" 标签

31 个结果

标签搜索结果

开发者工具

Awesome GitHub Copilot 定制化内容 MCP 服务器

一个基于 Model Context Protocol (MCP) 的服务器,用于向 GitHub Copilot 客户端提供社区贡献的定制代理、Prompt 和指令,以增强开发体验。

开发者工具

GenAI-Practice MCP 研究助手服务器

这是一个基于 Model Context Protocol (MCP) 实现的服务器,提供学术论文检索工具、数据资源管理和Prompt模板,作为LLM应用的上下文后端服务。

AI与计算

LangChain4j MCP服务器开发模板

基于LangChain4j和Spring Boot,提供构建Model Context Protocol (MCP) 服务器的完整模板,支持资源、工具及Prompt模板的托管与管理。

开发者工具

MCP AI Agent 指南服务器

该MCP服务器提供专业的AI代理开发工具和模板,涵盖分层提示、代码规范分析、可视化、内存优化和敏捷规划。

AI与计算

MCP服务器:网络爬虫数据集成(mcp-server-webcrawl)

连接大型语言模型(LLM)与多种网络爬虫数据,提供强大的上下文搜索、信息提取和自定义交互功能。

AI与计算

MCP上下文协议服务器

一个基于TypeScript构建的MCP服务器实现,提供上下文信息、工具执行、Prompt渲染以及OAuth认证和会话管理功能。

AI与计算

MCP服务器快速启动模板

为构建基于Model Context Protocol (MCP) 的AI助手上下文服务器提供快速启动模板,支持工具、资源和Prompt的集成与管理。

AI与计算

TurboMCP: Rust MCP服务器SDK

高性能Rust SDK,用于构建Model Context Protocol (MCP) 服务器,为LLM客户端提供上下文信息、工具和交互模式。

AI与计算

Solon AI MCP 多框架集成示例

基于 Solon AI 框架,展示如何在 Spring Boot, Solon, Vert.x 等多种 Java 框架中构建和集成 MCP 服务器,提供资源、工具、Prompt 能力。

开发者工具

AutoMCP

从OpenAPI规范自动生成并启动MCP服务器,为LLM提供API工具、文档资源和Prompt。

AI与计算

fast-agent MCP 应用框架

基于 Model Context Protocol (MCP) 构建 LLM 应用的高效框架,用于创建和编排 Agent、调用工具和管理上下文。

商业系统

Salesforce Agentforce SDK

构建Salesforce AI Agent和Prompt模板的Python SDK,包含MCP服务器用于集成。

AI与计算

GLUE框架:GenAI链接与统一引擎

GLUE框架是一个用于构建多模型AI应用的强大框架,它集成了MCP服务器功能,支持资源、工具和Prompt模板管理,为LLM客户端提供上下文服务。

AI与计算

JS MCP Server

一个基于 JavaScript 开发的 MCP 服务器,用于管理资源、工具和 Prompt,为 LLM 应用提供上下文服务。

AI与计算

Speelka Agent

Speelka Agent 是一个通用的 LLM Agent,基于 Model Context Protocol (MCP) 构建,能够利用来自其他 MCP 服务器的工具,为 LLM 客户端提供上下文服务。

开发者工具

示例MCP服务器

基于ArcBlock平台的演示MCP服务器,提供资源、工具和Prompt模板,用于LLM应用上下文管理。

AI与计算

MCP Anthropic Prompt工具服务器

此MCP服务器提供调用Anthropic实验性Prompt工程API的工具,用于生成、改进和模板化Prompt。

AI与计算

Hyperf MCP Server

基于 Hyperf 框架实现的 MCP 服务器,提供资源、工具和 Prompt 管理,支持 SSE 和命令行交互。

AI与计算

Wiki-RAG MCP服务器

Wiki-RAG MCP服务器基于Model Context Protocol,为LLM应用提供Mediawiki知识库的上下文服务,支持资源访问、工具调用和Prompt模板定制。

开发者工具

senpai.nvim

senpai.nvim 是一个 Neovim AI 插件,内置 MCP 服务器,支持通过 Model Context Protocol 协议与 Mastra 等 MCP 服务器交互,实现聊天、RAG、Prompt Launcher 等 AI 功能。

开发者工具

Blaxel Python SDK (MCP Server)

Blaxel Python SDK 提供了一套用于构建和部署 MCP 服务器的工具,旨在简化大型语言模型(LLM)与外部上下文和功能集成的过程。

AI与计算

Spring AI MCP Server示例

基于Spring AI框架构建的MCP服务器示例,用于演示如何为LLM应用提供上下文服务,包括资源管理、工具调用和Prompt模板渲染等核心功能。

开发者工具

HoneyHive TypeScript SDK MCP Server

HoneyHive TypeScript SDK 提供可安装的 Model Context Protocol (MCP) 服务器,将 SDK 方法作为工具暴露给 AI 应用,以管理上下文和功能。

开发者工具

Code2Prompt MCP服务器

Code2Prompt作为MCP服务器,将代码库转换为结构化Prompt,为LLM提供代码上下文,支持资源管理和Prompt模版定制。

开发者工具

StrawMCP Dart SDK

StrawMCP Dart SDK 提供 MCP 协议的 Dart 实现,用于构建 LLM 应用的上下文服务后端。

AI与计算

ThreatNews MCP Server

ThreatNews MCP Server是一个基于MCP协议的后端应用,提供威胁情报收集工具和威胁分析Prompt,用于集成到LLM应用中。

开发者工具

MCP SDK for PHP

PHP实现的Model Context Protocol SDK,用于构建MCP客户端和服务器,标准化LLM上下文处理。

AI与计算

MyMCP服务器

MyMCP是一个实现了Model Context Protocol (MCP) 的服务器,旨在为LLM应用提供资源、工具和Prompt模板等上下文服务。

开发者工具

labs ai tools for devs

Docker AI Tools for Developers是一个基于Docker容器的平台,它允许开发者使用Markdown文件定义AI工作流,并作为MCP服务器提供Prompt和工具服务。

AI与计算

bioma tool

一个基于Rust实现的MCP服务器,提供资源管理、工具调用(包括echo、memory、fetch)和Prompt模板功能,支持Stdio和WebSocket传输协议,用于连接LLM客户端。

开发者工具

mcp dev prompter

Dev Prompter MCP Server是一个轻量级的MCP服务器实现,专注于Prompt模板管理和渲染,通过标准化的MCP协议为LLM客户端提供Prompt服务。