搜索结果
run
找到 65 个相关结果
Cloud / Azure / Infra
Azure 验证
azure-validate
面向 Azure 就绪状态的部署前验证。对配置、基础设施(Bicep 或 Terraform)、RBAC 角色分配、托管标识等运行深度检查……
Cloud / Azure / Infra
Azure 合规
azure-compliance
使用 azqr 运行 Azure 合规与安全审计,并附加 Key Vault 过期检查。涵盖最佳实践评估、资源审查、策略/合规…
DevOps / Deployment
GitHub Actions 文档
github-actions-docs
当用户询问如何编写、解释、自定义、迁移、保护或排查 GitHub Actions 工作流、工作流语法、触发器、矩阵、运行器等问题时使用……
AI / LLM / Agent skills
通过 LiteLLM Copilot 运行 Claude Code
running-claude-code-via-litellm-copilot
当通过本地 LiteLLM 代理将 Claude Code 路由至 GitHub Copilot 时使用,以减少 Anthropic 的直接开销,配置 ANTHROPIC_BASE_URL 或……
AI / LLM / Agent skills
最小化运行与审计
minimal-run-and-audit
用于“README优先”AI仓库复现的可信通道执行与报告技能。当任务专门用于捕获或规范化来自……的证据时使用。
Frontend / UI
审计
audit
针对无障碍、性能、主题、响应式设计和反模式运行技术质量检查。生成包含 P0-P3 严重级别的评分报告……
AI / LLM / Agent skills
完成前验证
verification-before-completion
在准备声明工作已完成、已修复或已通过时使用,适用于提交代码或创建 PR 之前——需要运行验证命令并确认输出…
DevOps / Deployment
airunway-aks-setup
airunway-aks-setup
在 AKS 上搭建 AI Runway —— 从裸集群到模型运行。涵盖集群验证、控制器安装、GPU 评估、提供商配置以及首次…
Frontend / UI
前端设计
frontend-design
已弃用:此技能已更名为 'impeccable'。请改为运行 /impeccable。
Frontend / UI
引导上手
onboard
设计与优化新手引导流程、空状态和首次运行体验,帮助用户快速获取价值。当用户提及新手引导……时使用。
AI / LLM / Agent skills
新手引导转化率优化
onboarding-cro
当用户希望优化注册后的引导流程、用户激活、首次运行体验或价值实现时间时使用。当用户提及“onboarding…”时也可使用。
AI / LLM / Agent skills
图像转视频
image-to-video
在 RunComfy 上让任何静态图像动起来——此技能是一个智能路由器,能将用户意图匹配到 RunComfy 目录中合适的 i2v 模型。常规动画选取 HappyHorse 1.0 I2V(Arena #1、原生音频、保持身份特征),带 `audio_url` 的自定义配音口型同步选取 Wan 2.7,基于“图像 + 参考视频 + 参考音频”的多模态动画选取 Seedance 2.0 Pro。内置各模型的文档化提示词模式,让调用者获得更精准的输出,避免在错误的模型上浪费迭代次数。通过本地 RunComfy CLI 调用 `runcomfy run <vendor>/<model>/image-to-video`(或其端点变体)。触发词包括“image to video”、“image-to-video”、“i2v”、“animate image”、“make this move”,或任何将静态图像转换为视频的明确请求。
AI / LLM / Agent skills
seedance-v2
seedance-v2
在 RunComfy 上使用 ByteDance Seedance 2.0 Pro 生成电影级短视频。文档说明了 Seedance 2.0 Pro 的优势(多模态参考——最多支持 9 张图像、3 个视频和 3 个音频——同步内嵌音频与自然唇形同步、电影级动作优化)、4-15 秒的时长规范,以及何时应转用 HappyHorse 1.0 / Wan 2.7 / Kling。通过本地 RunComfy CLI 调用 `runcomfy run bytedance/seedance-v2/pro`。在触发“seedance”、“seedance 2”、“seedance v2”、“seedance pro”、“bytedance video”或明确要求使用此模型生成视频时激活。
AI / LLM / Agent skills
happyhorse-1-0
happyhorse-1-0
在 RunComfy 上使用 HappyHorse 1.0 生成文本到视频。文档说明了 HappyHorse 1.0 的优势(在 Artificial Analysis Video Arena 排名第一,原生 1080p 且内置同步音频,多镜头角色一致性,支持 6 种语言提示词)、时长/宽高比/分辨率规范,以及何时应转用 Wan 2.7 / Seedance 2 / LTX 2。通过本地 RunComfy CLI 调用 `runcomfy run happyhorse/happyhorse-1-0/text-to-video`。当触发词为 "happyhorse"、"happy horse"、"happyhorse 1.0"、"happyhorse video",或任何明确要求使用此模型生成视频的指令时触发。
AI / LLM / Agent skills
视频编辑
video-edit
在 RunComfy 上编辑现有视频 — 此技能是一个智能路由器,可将用户意图匹配到 RunComfy 目录中合适的编辑模型。支持选择 Wan 2.7 Edit-Video(通用风格重绘 / 背景替换 / 包装替换,保留身份特征与运动轨迹)、Kling 2.6 Pro Motion Control(将参考视频中的精确动作迁移至目标角色),或 Lucy Edit Restyle(轻量级且身份特征稳定的风格重绘 / 服装替换)。内置各模型文档化的提示词模式,使该技能能获得更精准的编辑效果,避免在错误的模型上浪费迭代次数。通过本地 RunComfy CLI 调用 `runcomfy run <vendor>/<model>/<endpoint>`。触发词包括:“video edit”、“edit video”、“restyle video”、“swap video background”、“motion control”、“outfit swap video”,或任何明确要求转换视频的指令。
AI / LLM / Agent skills
wan-2-7
wan-2-7
在 RunComfy 上使用 Wan 2.7(Wan-AI 的旗舰动态模型)生成文生视频。文档涵盖了 Wan 2.7 的优势(多参考条件控制、通过 `audio_url` 实现音频驱动的唇形同步、更平滑的过渡、提示词扩展)、时长/分辨率/宽高比规范,以及何时应转用 HappyHorse 1.0 / Seedance 2.0 / Kling / LTX 2。通过本地 RunComfy CLI 调用 `runcomfy run wan-ai/wan-2-7/text-to-video`。当触发词为“wan”、“wan 2.7”、“wan-2-7”、“wan video”,或明确要求使用此模型生成视频时激活。
AI / LLM / Agent skills
flux-kontext
flux-kontext
在 RunComfy 上使用 Flux 1 Kontext Pro(Black Forest Labs 的精准局部图像编辑模型)编辑图像——内置该模型官方文档中的提示词模式,使该技能能获得比直接调用同一模型更出色的输出效果。文档说明了 Flux Kontext 的优势(单参考图精准局部编辑、强大的提示词控制能力、稳定的高保真输出)、其输入模式(单张图像 + 提示词),以及何时应转而使用 Nano Banana Edit / GPT Image 2 edit / Flux 2 Klein。通过本地 RunComfy CLI 调用 `runcomfy run blackforestlabs/flux-1-kontext/pro/edit`。当触发词为 "flux kontext"、"flux-kontext"、"flux 1 kontext"、"kontext"、"BFL kontext",或任何明确要求使用此模型进行编辑的指令时激活。
AI / LLM / Agent skills
gpt-image-edit
gpt-image-edit
在 RunComfy 上使用 OpenAI GPT Image 2(ChatGPT Images 2.0 的 `/edit` 端点)编辑图像——内置该模型的文档化提示词模式,使该技能比针对同一模型的朴素提示词获得更精准的输出。记录了 GPT Image Edit 的优势(保留语言、多语言图像内文本编辑、最多支持 10 张图像的多重参考、布局/排版精度)、数据架构,以及何时应路由至 Nano Banana Edit / Flux Kontext / GPT Image 2 t2i。通过本地 RunComfy CLI 调用 `runcomfy run openai/gpt-image-2/edit`。在触发词为“gpt image edit”、“gpt-image-edit”、“chatgpt image edit”、“edit with gpt image 2”,或任何明确要求使用此模型进行编辑时触发。
AI / LLM / Agent skills
nano-banana-edit
nano-banana-edit
在 RunComfy 上使用 Google Nano Banana 2(图生图编辑端点)编辑图像。文档说明了 Nano Banana Edit 的优势(保留主体特征、替换背景、使用空间语言进行局部编辑、支持多达 20 张输入的多图批量编辑)、数据结构,以及何时应转而使用 GPT Image 2 edit、Flux Kontext 或 Nano Banana 2 t2i。通过本地 RunComfy CLI 调用 `runcomfy run google/nano-banana-2/edit`。在触发“nano banana edit”、“edit with nano banana”、“image edit nano banana”或任何明确要求使用此模型进行编辑的指令时激活。
AI / LLM / Agent skills
图像编辑
image-edit
在 RunComfy 上编辑图像——此技能是一个智能路由器,可将用户意图匹配至 RunComfy 目录中最合适的编辑模型。支持选择 Nano Banana Edit(批量处理最多 20 张,默认保持身份特征)、OpenAI GPT Image 2 Edit(多语言图像内文本重写、多参考组合、精准布局)、Flux Kontext Pro(单参考高保真局部编辑)或 Z-Image Turbo Inpaint(基于遮罩的精准区域编辑)。内置各模型官方文档的提示词模式,使该技能能获得更精准的编辑效果,避免在错误的模型上浪费迭代次数。通过本地 RunComfy CLI 调用 `runcomfy run <vendor>/<model>/edit`。触发词包括“image edit”、“edit image”、“image-to-image”、“i2i”、“swap background”、“remove object”、“rewrite headline”,或任何明确要求编辑单张或批量图像的指令。
第 1 / 4 页