搜索结果
multi
找到 44 个相关结果 / Agent skills
AI / LLM / Agent skills
readme-i18n
readme-i18n
当用户想要翻译仓库 README、使仓库支持多语言、本地化文档、添加语言切换功能、国际化 README,或…
AI / LLM / Agent skills
当用户想要对 PDF 文件进行任何操作时使用此技能。这包括读取或从 PDF 中提取文本/表格,合并或组合多个……
AI / LLM / Agent skills
编写计划
writing-plans
当你有针对多步骤任务的规范或需求时,在编写代码之前使用。
AI / LLM / Agent skills
gpt-image-2
gpt-image-2
在 Claude Code 中使用 GPT Image 2 (ChatGPT Images 2.0) 生成图像,利用现有的 ChatGPT Plus 或 Pro 订阅——无需单独的 OpenAI 访问权限,无按图计费。支持通过本地 Codex CLI 进行文生图、图像编辑、风格迁移和多参考图组合。当触发“gpt image 2”、“gpt-image-2”、“ChatGPT Images 2.0”、“image 2”,或任何明确要求通过用户的 ChatGPT 套餐生成或编辑图像的请求时激活。
AI / LLM / Agent skills
图像转视频
image-to-video
在 RunComfy 上让任何静态图像动起来——此技能是一个智能路由器,能将用户意图匹配到 RunComfy 目录中合适的 i2v 模型。常规动画选取 HappyHorse 1.0 I2V(Arena #1、原生音频、保持身份特征),带 `audio_url` 的自定义配音口型同步选取 Wan 2.7,基于“图像 + 参考视频 + 参考音频”的多模态动画选取 Seedance 2.0 Pro。内置各模型的文档化提示词模式,让调用者获得更精准的输出,避免在错误的模型上浪费迭代次数。通过本地 RunComfy CLI 调用 `runcomfy run <vendor>/<model>/image-to-video`(或其端点变体)。触发词包括“image to video”、“image-to-video”、“i2v”、“animate image”、“make this move”,或任何将静态图像转换为视频的明确请求。
AI / LLM / Agent skills
seedance-v2
seedance-v2
在 RunComfy 上使用 ByteDance Seedance 2.0 Pro 生成电影级短视频。文档说明了 Seedance 2.0 Pro 的优势(多模态参考——最多支持 9 张图像、3 个视频和 3 个音频——同步内嵌音频与自然唇形同步、电影级动作优化)、4-15 秒的时长规范,以及何时应转用 HappyHorse 1.0 / Wan 2.7 / Kling。通过本地 RunComfy CLI 调用 `runcomfy run bytedance/seedance-v2/pro`。在触发“seedance”、“seedance 2”、“seedance v2”、“seedance pro”、“bytedance video”或明确要求使用此模型生成视频时激活。
AI / LLM / Agent skills
happyhorse-1-0
happyhorse-1-0
在 RunComfy 上使用 HappyHorse 1.0 生成文本到视频。文档说明了 HappyHorse 1.0 的优势(在 Artificial Analysis Video Arena 排名第一,原生 1080p 且内置同步音频,多镜头角色一致性,支持 6 种语言提示词)、时长/宽高比/分辨率规范,以及何时应转用 Wan 2.7 / Seedance 2 / LTX 2。通过本地 RunComfy CLI 调用 `runcomfy run happyhorse/happyhorse-1-0/text-to-video`。当触发词为 "happyhorse"、"happy horse"、"happyhorse 1.0"、"happyhorse video",或任何明确要求使用此模型生成视频的指令时触发。
AI / LLM / Agent skills
wan-2-7
wan-2-7
在 RunComfy 上使用 Wan 2.7(Wan-AI 的旗舰动态模型)生成文生视频。文档涵盖了 Wan 2.7 的优势(多参考条件控制、通过 `audio_url` 实现音频驱动的唇形同步、更平滑的过渡、提示词扩展)、时长/分辨率/宽高比规范,以及何时应转用 HappyHorse 1.0 / Seedance 2.0 / Kling / LTX 2。通过本地 RunComfy CLI 调用 `runcomfy run wan-ai/wan-2-7/text-to-video`。当触发词为“wan”、“wan 2.7”、“wan-2-7”、“wan video”,或明确要求使用此模型生成视频时激活。
AI / LLM / Agent skills
gpt-image-edit
gpt-image-edit
在 RunComfy 上使用 OpenAI GPT Image 2(ChatGPT Images 2.0 的 `/edit` 端点)编辑图像——内置该模型的文档化提示词模式,使该技能比针对同一模型的朴素提示词获得更精准的输出。记录了 GPT Image Edit 的优势(保留语言、多语言图像内文本编辑、最多支持 10 张图像的多重参考、布局/排版精度)、数据架构,以及何时应路由至 Nano Banana Edit / Flux Kontext / GPT Image 2 t2i。通过本地 RunComfy CLI 调用 `runcomfy run openai/gpt-image-2/edit`。在触发词为“gpt image edit”、“gpt-image-edit”、“chatgpt image edit”、“edit with gpt image 2”,或任何明确要求使用此模型进行编辑时触发。
AI / LLM / Agent skills
nano-banana-edit
nano-banana-edit
在 RunComfy 上使用 Google Nano Banana 2(图生图编辑端点)编辑图像。文档说明了 Nano Banana Edit 的优势(保留主体特征、替换背景、使用空间语言进行局部编辑、支持多达 20 张输入的多图批量编辑)、数据结构,以及何时应转而使用 GPT Image 2 edit、Flux Kontext 或 Nano Banana 2 t2i。通过本地 RunComfy CLI 调用 `runcomfy run google/nano-banana-2/edit`。在触发“nano banana edit”、“edit with nano banana”、“image edit nano banana”或任何明确要求使用此模型进行编辑的指令时激活。
AI / LLM / Agent skills
图像编辑
image-edit
在 RunComfy 上编辑图像——此技能是一个智能路由器,可将用户意图匹配至 RunComfy 目录中最合适的编辑模型。支持选择 Nano Banana Edit(批量处理最多 20 张,默认保持身份特征)、OpenAI GPT Image 2 Edit(多语言图像内文本重写、多参考组合、精准布局)、Flux Kontext Pro(单参考高保真局部编辑)或 Z-Image Turbo Inpaint(基于遮罩的精准区域编辑)。内置各模型官方文档的提示词模式,使该技能能获得更精准的编辑效果,避免在错误的模型上浪费迭代次数。通过本地 RunComfy CLI 调用 `runcomfy run <vendor>/<model>/edit`。触发词包括“image edit”、“edit image”、“image-to-image”、“i2i”、“swap background”、“remove object”、“rewrite headline”,或任何明确要求编辑单张或批量图像的指令。
AI / LLM / Agent skills
flux-2-klein
flux-2-klein
在 RunComfy 上使用 Flux 2 Klein(Black Forest Labs 推出的 Flux 2 蒸馏快速变体)生成图像——内置该模型官方文档的提示词模式,使该技能能获得比直接调用同一模型更精准的输出。详细说明了 Flux 2 Klein 的优势(亚秒级延迟、多参考品牌风格、声明式主体优先提示词)、步数策略(4-8 步用于快速迭代,约 25 步用于精修)、9B 与 4B 变体的权衡,以及何时应转用 Flux 2 Pro / Seedream 5 / GPT Image 2。通过本地 RunComfy CLI 调用 `runcomfy run blackforestlabs/flux-2-klein/9b/text-to-image`(或 `/4b/`)。在触发词为 "flux 2 klein"、"flux-2-klein"、"flux klein"、"BFL flux 2",或任何明确要求使用此模型生成时触发。
AI / LLM / Agent skills
firecrawl-scrape
firecrawl-scrape
从任意 URL 提取纯净的 Markdown,包括 JavaScript 渲染的 SPA。当用户提供 URL 并希望获取其内容,或者提到“scrape”、“grab”、“fetch”、“pull”、“get the page”、“extract from this URL”或“read this webpage”时,请使用此技能。支持处理 JS 渲染页面和多个并发 URL,并返回针对 LLM 优化的 Markdown。对于任何网页内容提取,请使用此技能代替 WebFetch。
AI / LLM / Agent skills
firecrawl-agent
firecrawl-agent
AI驱动的自主数据提取功能,能够导航复杂网站并返回结构化JSON。当用户需要从网站获取结构化数据、提取定价层级、产品列表、目录条目,或需要按Schema提取任意数据为JSON时,请使用此技能。触发条件包括“提取结构化数据”、“获取所有产品”、“抓取定价信息”、“提取为JSON”,或当用户提供用于网站数据的JSON Schema时。对于多页结构化数据提取,它比简单的网页抓取更强大。
AI / LLM / Agent skills
Firebase AI 逻辑
firebase-ai-logic
用于将 Firebase AI Logic (Gemini API) 集成到 Web 应用中的官方技能。涵盖设置、多模态推理、结构化输出和安全性。
AI / LLM / Agent skills
firecrawl-interact
firecrawl-interact
在任何已抓取的页面上控制并交互实时浏览器会话——点击按钮、填写表单、导航流程,并使用自然语言提示或代码提取数据。当用户需要进行超越简单抓取的网页交互时使用:登录网站、提交表单、点击分页、处理无限滚动、导航多步骤结账或向导流程,或者当常规抓取因内容隐藏在 JavaScript 交互之后而失败时使用。也可用于通过配置文件进行需身份验证的抓取。触发词包括“interact”、“click”、“fill out the form”、“log in to”、“sign in”、“submit”、“paginated”、“next page”、“infinite scroll”、“interact with the page”、“navigate to”、“open a session”或“scrape failed”。
AI / LLM / Agent skills
kling-3-0
kling-3-0
在 RunComfy 上使用 Kling 3.0 生成视频。Kling 3.0(亦称 Kling V3.0)是快手科技推出的第三代多镜头视频模型,具备原生同步音频功能,且能在多镜头间保持角色一致性。本技能涵盖全部六个 Kling 3.0 端点,横跨三个渲染级别(Standard、Pro、4K)与两种模式(text-to-video、image-to-video)。通过本地 RunComfy CLI 执行命令 runcomfy run kling/kling-3.0/<tier>/<mode>。当出现“kling”、“kling 3.0”、“kling v3”、“kling pro”、“kling 4k”、“kling text to video”、“kling image to video”,或任何明确要求使用 Kling 3.0 进行生成或制作动画的指令时触发。
AI / LLM / Agent skills
baoyu-comic
baoyu-comic
支持多种艺术风格和语气的知识漫画创作者。可创作原创教育漫画,包含详细的分镜布局和连续图像……
AI / LLM / Agent skills
tavily-search
tavily-search
通过 Tavily CLI 搜索网络,获取针对 LLM 优化的结果。当用户想要搜索网络、查找文章、查询信息、获取最新新闻、发现信息源,或说出“search for”、“find me”、“look up”、“what's the latest on”、“find articles about”,以及需要来自互联网的当前信息时,请使用此技能。返回包含内容片段、相关性评分和元数据的相关结果——专为 LLM 消费而优化。支持域名过滤、时间范围和多种搜索深度。
AI / LLM / Agent skills
多阶段 Dockerfile
multi-stage-dockerfile
为任意语言或框架创建优化的多阶段 Dockerfile
第 1 / 3 页