搜索结果
ask
找到 69 个相关结果 / AI / LLM
AI / LLM / Agent skills
wan-2-7
wan-2-7
在 RunComfy 上使用 Wan 2.7(Wan-AI 的旗舰动态模型)生成文生视频。文档涵盖了 Wan 2.7 的优势(多参考条件控制、通过 `audio_url` 实现音频驱动的唇形同步、更平滑的过渡、提示词扩展)、时长/分辨率/宽高比规范,以及何时应转用 HappyHorse 1.0 / Seedance 2.0 / Kling / LTX 2。通过本地 RunComfy CLI 调用 `runcomfy run wan-ai/wan-2-7/text-to-video`。当触发词为“wan”、“wan 2.7”、“wan-2-7”、“wan video”,或明确要求使用此模型生成视频时激活。
AI / LLM / Agent skills
flux-kontext
flux-kontext
在 RunComfy 上使用 Flux 1 Kontext Pro(Black Forest Labs 的精准局部图像编辑模型)编辑图像——内置该模型官方文档中的提示词模式,使该技能能获得比直接调用同一模型更出色的输出效果。文档说明了 Flux Kontext 的优势(单参考图精准局部编辑、强大的提示词控制能力、稳定的高保真输出)、其输入模式(单张图像 + 提示词),以及何时应转而使用 Nano Banana Edit / GPT Image 2 edit / Flux 2 Klein。通过本地 RunComfy CLI 调用 `runcomfy run blackforestlabs/flux-1-kontext/pro/edit`。当触发词为 "flux kontext"、"flux-kontext"、"flux 1 kontext"、"kontext"、"BFL kontext",或任何明确要求使用此模型进行编辑的指令时激活。
AI / LLM / Agent skills
gpt-image-edit
gpt-image-edit
在 RunComfy 上使用 OpenAI GPT Image 2(ChatGPT Images 2.0 的 `/edit` 端点)编辑图像——内置该模型的文档化提示词模式,使该技能比针对同一模型的朴素提示词获得更精准的输出。记录了 GPT Image Edit 的优势(保留语言、多语言图像内文本编辑、最多支持 10 张图像的多重参考、布局/排版精度)、数据架构,以及何时应路由至 Nano Banana Edit / Flux Kontext / GPT Image 2 t2i。通过本地 RunComfy CLI 调用 `runcomfy run openai/gpt-image-2/edit`。在触发词为“gpt image edit”、“gpt-image-edit”、“chatgpt image edit”、“edit with gpt image 2”,或任何明确要求使用此模型进行编辑时触发。
AI / LLM / Agent skills
nano-banana-edit
nano-banana-edit
在 RunComfy 上使用 Google Nano Banana 2(图生图编辑端点)编辑图像。文档说明了 Nano Banana Edit 的优势(保留主体特征、替换背景、使用空间语言进行局部编辑、支持多达 20 张输入的多图批量编辑)、数据结构,以及何时应转而使用 GPT Image 2 edit、Flux Kontext 或 Nano Banana 2 t2i。通过本地 RunComfy CLI 调用 `runcomfy run google/nano-banana-2/edit`。在触发“nano banana edit”、“edit with nano banana”、“image edit nano banana”或任何明确要求使用此模型进行编辑的指令时激活。
AI / LLM / Agent skills
图像编辑
image-edit
在 RunComfy 上编辑图像——此技能是一个智能路由器,可将用户意图匹配至 RunComfy 目录中最合适的编辑模型。支持选择 Nano Banana Edit(批量处理最多 20 张,默认保持身份特征)、OpenAI GPT Image 2 Edit(多语言图像内文本重写、多参考组合、精准布局)、Flux Kontext Pro(单参考高保真局部编辑)或 Z-Image Turbo Inpaint(基于遮罩的精准区域编辑)。内置各模型官方文档的提示词模式,使该技能能获得更精准的编辑效果,避免在错误的模型上浪费迭代次数。通过本地 RunComfy CLI 调用 `runcomfy run <vendor>/<model>/edit`。触发词包括“image edit”、“edit image”、“image-to-image”、“i2i”、“swap background”、“remove object”、“rewrite headline”,或任何明确要求编辑单张或批量图像的指令。
AI / LLM / Agent skills
flux-2-klein
flux-2-klein
在 RunComfy 上使用 Flux 2 Klein(Black Forest Labs 推出的 Flux 2 蒸馏快速变体)生成图像——内置该模型官方文档的提示词模式,使该技能能获得比直接调用同一模型更精准的输出。详细说明了 Flux 2 Klein 的优势(亚秒级延迟、多参考品牌风格、声明式主体优先提示词)、步数策略(4-8 步用于快速迭代,约 25 步用于精修)、9B 与 4B 变体的权衡,以及何时应转用 Flux 2 Pro / Seedream 5 / GPT Image 2。通过本地 RunComfy CLI 调用 `runcomfy run blackforestlabs/flux-2-klein/9b/text-to-image`(或 `/4b/`)。在触发词为 "flux 2 klein"、"flux-2-klein"、"flux klein"、"BFL flux 2",或任何明确要求使用此模型生成时触发。
AI / LLM / Agent skills
nano-banana-2
nano-banana-2
在 RunComfy 上使用 Google Nano Banana 2(Gemini 系列的 flash 级文本生成图像模型)生成图像——内置该模型官方文档中的提示词模式,使该技能能获得比直接调用同一模型更出色的输出效果。文档详细说明了 Nano Banana 2 的优势(快速迭代、图像内文字排版渲染、可预测的画面构图、可选的联网背景信息)、分辨率级别的定价、安全容忍度调节机制,以及何时应转而使用 Nano Banana Pro / GPT Image 2 / Flux 2 / Seedream。通过本地 RunComfy CLI 调用 `runcomfy run google/nano-banana-2/text-to-image`。当触发词为“nano banana”、“nano-banana-2”、“nano banana 2”、“google image gen”、“gemini image”,或明确要求使用此模型生成图像时触发。
AI / LLM / Agent skills
代理空间
agentspace
随时查看你的 AI 智能体在做什么。智能体会持续生成日志、代码、输出结果、截图和构建产物。只需一条命令即可将文件夹转换为实时 URL,你(或队友)可在任意浏览器中打开,实时查看文件演变、就地编辑或添加评论——无需同步、无需打包、无需账号。工作区匿名保持在线 24 小时;通过一封邮箱认证即可永久保留。托管于 Cloudflare。触发指令包括“show me what the agent is doing”、“open the agent's folder”、“share this folder”、“give me a link”、“hand off this workspace”,或任何要求将智能体的本地文件状态共享给其他设备或他人的请求。
AI / LLM / Agent skills
sentry-cli
sentry-cli
关于使用 Sentry CLI 从命令行与 Sentry 交互的指南。当用户询问查看 issues、events、projects、organizations 等内容时使用。
AI / LLM / Agent skills
开发 Genkit Go
developing-genkit-go
使用 Go 语言中的 Genkit 开发 AI 驱动的应用程序。当用户要求使用 Genkit 构建 Go 语言中的 AI 功能、智能体、流程或工具,或在处理……时使用。
AI / LLM / Agent skills
Turborepo
turborepo
Turborepo monorepo 构建系统指南。触发条件:turbo.json、任务流水线、dependsOn、缓存、远程缓存、“turbo” CLI、--filter、--affected、CI 优化、环境变量、内部包、monorepo 结构/最佳实践以及边界。适用场景:用户配置任务/工作流/流水线、创建包、搭建 monorepo、在应用间共享代码、运行已更改/受影响的包、调试缓存,或涉及 apps/packages 目录时。
AI / LLM / Agent skills
开发-genkit-js
developing-genkit-js
使用 Genkit 在 Node.js/TypeScript 中开发 AI 驱动的应用。当用户询问 JavaScript/TypeScript 中的 Genkit、AI 智能体、流程或工具时使用,…
AI / LLM / Agent skills
AI SDK
ai-sdk
回答关于 AI SDK 的问题,并协助构建 AI 驱动的功能。适用于以下开发者场景:(1) 询问 generateText、streamText 等 AI SDK 函数……
AI / LLM / Agent skills
Notion API
notion-api
此技能提供了通过 REST 调用与 Notion API 交互的全面指南。每当用户要求与 Notion 交互时,均应使用此技能,包括读取、创建、更新或删除页面、数据库、块、注释或任何其他 Notion 内容。该技能涵盖了身份验证、所有可用端点、分页、错误处理和最佳实践。
AI / LLM / Agent skills
使用文件进行规划
planning-with-files
实现 Manus 风格的基于文件的规划,以组织和跟踪复杂任务的进度。创建 task_plan.md、findings.md 和 progress.md。在被要求时使用…
AI / LLM / Agent skills
SEO
seo
优化搜索引擎可见性和排名。当被要求“改进 SEO”、“优化搜索”、“修复 meta 标签”、“添加结构化数据”、“站点地图”时使用……
AI / LLM / Agent skills
kling-3-0
kling-3-0
在 RunComfy 上使用 Kling 3.0 生成视频。Kling 3.0(亦称 Kling V3.0)是快手科技推出的第三代多镜头视频模型,具备原生同步音频功能,且能在多镜头间保持角色一致性。本技能涵盖全部六个 Kling 3.0 端点,横跨三个渲染级别(Standard、Pro、4K)与两种模式(text-to-video、image-to-video)。通过本地 RunComfy CLI 执行命令 runcomfy run kling/kling-3.0/<tier>/<mode>。当出现“kling”、“kling 3.0”、“kling v3”、“kling pro”、“kling 4k”、“kling text to video”、“kling image to video”,或任何明确要求使用 Kling 3.0 进行生成或制作动画的指令时触发。
AI / LLM / Agent skills
宝鱼幻灯片
baoyu-slide-deck
根据内容生成专业的演示文稿图片。先创建带有样式说明的大纲,然后生成单张幻灯片图片。当用户要求……时使用。
AI / LLM / Agent skills
baoyu-format-markdown
baoyu-format-markdown
格式化纯文本或 Markdown 文件,支持 frontmatter、标题、摘要、章节标题、粗体、列表和代码块。当用户要求“格式化 Markdown”时使用,……
AI / LLM / Agent skills
开发 Genkit Python
developing-genkit-python
使用 Genkit 在 Python 中开发 AI 驱动的应用程序。当用户询问有关 Python 中的 Genkit、AI 智能体、流程或工具时,或者在遇到 Genkit……