灵感菇

AI 技能的自然生态,你的一句话,蔓延出无限连接。

搜索结果

instead

找到 21 个相关结果

Frontend / UI

前端设计

frontend-design

53.4K

已弃用:此技能已更名为 'impeccable'。请改为运行 /impeccable。

Stars 0
frontenddesignuiux

Frontend / UI

传授无可挑剔的技能

teach-impeccable

50.3K

已弃用:请改用 /impeccable teach。此命令已合并到 impeccable 技能中。

Stars 0
designuxagentteach

AI / LLM / Agent skills

seedance-v2

seedance-v2

44.3K

在 RunComfy 上使用 ByteDance Seedance 2.0 Pro 生成电影级短视频。文档说明了 Seedance 2.0 Pro 的优势(多模态参考——最多支持 9 张图像、3 个视频和 3 个音频——同步内嵌音频与自然唇形同步、电影级动作优化)、4-15 秒的时长规范,以及何时应转用 HappyHorse 1.0 / Wan 2.7 / Kling。通过本地 RunComfy CLI 调用 `runcomfy run bytedance/seedance-v2/pro`。在触发“seedance”、“seedance 2”、“seedance v2”、“seedance pro”、“bytedance video”或明确要求使用此模型生成视频时激活。

Stars 0
uitestingsecurityapi

AI / LLM / Agent skills

happyhorse-1-0

happyhorse-1-0

44.2K

在 RunComfy 上使用 HappyHorse 1.0 生成文本到视频。文档说明了 HappyHorse 1.0 的优势(在 Artificial Analysis Video Arena 排名第一,原生 1080p 且内置同步音频,多镜头角色一致性,支持 6 种语言提示词)、时长/宽高比/分辨率规范,以及何时应转用 Wan 2.7 / Seedance 2 / LTX 2。通过本地 RunComfy CLI 调用 `runcomfy run happyhorse/happyhorse-1-0/text-to-video`。当触发词为 "happyhorse"、"happy horse"、"happyhorse 1.0"、"happyhorse video",或任何明确要求使用此模型生成视频的指令时触发。

Stars 0
uisecurityapirag

AI / LLM / Agent skills

wan-2-7

wan-2-7

44.0K

在 RunComfy 上使用 Wan 2.7(Wan-AI 的旗舰动态模型)生成文生视频。文档涵盖了 Wan 2.7 的优势(多参考条件控制、通过 `audio_url` 实现音频驱动的唇形同步、更平滑的过渡、提示词扩展)、时长/分辨率/宽高比规范,以及何时应转用 HappyHorse 1.0 / Seedance 2.0 / Kling / LTX 2。通过本地 RunComfy CLI 调用 `runcomfy run wan-ai/wan-2-7/text-to-video`。当触发词为“wan”、“wan 2.7”、“wan-2-7”、“wan video”,或明确要求使用此模型生成视频时激活。

Stars 0
uisecurityapirag

AI / LLM / Agent skills

flux-kontext

flux-kontext

43.9K

在 RunComfy 上使用 Flux 1 Kontext Pro(Black Forest Labs 的精准局部图像编辑模型)编辑图像——内置该模型官方文档中的提示词模式,使该技能能获得比直接调用同一模型更出色的输出效果。文档说明了 Flux Kontext 的优势(单参考图精准局部编辑、强大的提示词控制能力、稳定的高保真输出)、其输入模式(单张图像 + 提示词),以及何时应转而使用 Nano Banana Edit / GPT Image 2 edit / Flux 2 Klein。通过本地 RunComfy CLI 调用 `runcomfy run blackforestlabs/flux-1-kontext/pro/edit`。当触发词为 "flux kontext"、"flux-kontext"、"flux 1 kontext"、"kontext"、"BFL kontext",或任何明确要求使用此模型进行编辑的指令时激活。

Stars 0
designuiuxsecurity

AI / LLM / Agent skills

gpt-image-edit

gpt-image-edit

43.9K

在 RunComfy 上使用 OpenAI GPT Image 2(ChatGPT Images 2.0 的 `/edit` 端点)编辑图像——内置该模型的文档化提示词模式,使该技能比针对同一模型的朴素提示词获得更精准的输出。记录了 GPT Image Edit 的优势(保留语言、多语言图像内文本编辑、最多支持 10 张图像的多重参考、布局/排版精度)、数据架构,以及何时应路由至 Nano Banana Edit / Flux Kontext / GPT Image 2 t2i。通过本地 RunComfy CLI 调用 `runcomfy run openai/gpt-image-2/edit`。在触发词为“gpt image edit”、“gpt-image-edit”、“chatgpt image edit”、“edit with gpt image 2”,或任何明确要求使用此模型进行编辑时触发。

Stars 0
uiuxsecurityapi

AI / LLM / Agent skills

nano-banana-edit

nano-banana-edit

43.9K

在 RunComfy 上使用 Google Nano Banana 2(图生图编辑端点)编辑图像。文档说明了 Nano Banana Edit 的优势(保留主体特征、替换背景、使用空间语言进行局部编辑、支持多达 20 张输入的多图批量编辑)、数据结构,以及何时应转而使用 GPT Image 2 edit、Flux Kontext 或 Nano Banana 2 t2i。通过本地 RunComfy CLI 调用 `runcomfy run google/nano-banana-2/edit`。在触发“nano banana edit”、“edit with nano banana”、“image edit nano banana”或任何明确要求使用此模型进行编辑的指令时激活。

Stars 0
uiuxtestingsecurity

AI / LLM / Agent skills

flux-2-klein

flux-2-klein

43.7K

在 RunComfy 上使用 Flux 2 Klein(Black Forest Labs 推出的 Flux 2 蒸馏快速变体)生成图像——内置该模型官方文档的提示词模式,使该技能能获得比直接调用同一模型更精准的输出。详细说明了 Flux 2 Klein 的优势(亚秒级延迟、多参考品牌风格、声明式主体优先提示词)、步数策略(4-8 步用于快速迭代,约 25 步用于精修)、9B 与 4B 变体的权衡,以及何时应转用 Flux 2 Pro / Seedream 5 / GPT Image 2。通过本地 RunComfy CLI 调用 `runcomfy run blackforestlabs/flux-2-klein/9b/text-to-image`(或 `/4b/`)。在触发词为 "flux 2 klein"、"flux-2-klein"、"flux klein"、"BFL flux 2",或任何明确要求使用此模型生成时触发。

Stars 0
uiuxsecurityapi

AI / LLM / Agent skills

nano-banana-2

nano-banana-2

43.7K

在 RunComfy 上使用 Google Nano Banana 2(Gemini 系列的 flash 级文本生成图像模型)生成图像——内置该模型官方文档中的提示词模式,使该技能能获得比直接调用同一模型更出色的输出效果。文档详细说明了 Nano Banana 2 的优势(快速迭代、图像内文字排版渲染、可预测的画面构图、可选的联网背景信息)、分辨率级别的定价、安全容忍度调节机制,以及何时应转而使用 Nano Banana Pro / GPT Image 2 / Flux 2 / Seedream。通过本地 RunComfy CLI 调用 `runcomfy run google/nano-banana-2/text-to-image`。当触发词为“nano banana”、“nano-banana-2”、“nano banana 2”、“google image gen”、“gemini image”,或明确要求使用此模型生成图像时触发。

Stars 0
uiuxtestingsecurity

AI / LLM / Agent skills

firecrawl-scrape

firecrawl-scrape

37.5K

从任意 URL 提取纯净的 Markdown,包括 JavaScript 渲染的 SPA。当用户提供 URL 并希望获取其内容,或者提到“scrape”、“grab”、“fetch”、“pull”、“get the page”、“extract from this URL”或“read this webpage”时,请使用此技能。支持处理 JS 渲染页面和多个并发 URL,并返回针对 LLM 优化的 Markdown。对于任何网页内容提取,请使用此技能代替 WebFetch。

Stars 0
uiapillmprompt

Productivity / General

解析

defuddle

19.1K

使用 Defuddle CLI 从网页中提取纯净的 Markdown 内容,移除杂乱元素和导航以节省 Token。当用户……时,请使用此工具代替 WebFetch。

Stars 0
defuddleextractcleanmarkdown

AI / LLM / Agent skills

cavecrew

cavecrew

15.9K

委派给原始风格子代理的决策指南。指导主线程何时生成 `cavecrew-investigator`(定位代码)、`cavecrew-builder`(1-2 个文件编辑)或 `cavecrew-reviewer`(差异审查),而不是在主线程内联执行工作或使用原生的 `Explore`。子代理的输出经过原始压缩,因此注入回主上下文的工具结果体积缩小了约 60%——在长会话中主上下文能维持更久。触发词:"delegate to subagent"、"use cavecrew"、"spawn investigator/builder/reviewer"、"save context"、"compressed agent output"。

Stars 0
uisecurityauditrag

AI / LLM / Agent skills

firecrawl-browser

firecrawl-browser

11.3K

已弃用 —— 请改用 scrape + interact。Interact 允许你抓取页面,然后进行点击、填写表单和导航,而无需手动管理会话。当用户需要与网页交互、登录网站、点击按钮、填写表单、导航多步流程、处理分页,或者当常规抓取因内容需要 JavaScript 交互而失败时,请使用此技能。在触发“click”、“fill out the form”、“log in to”、“paginated”、“infinite scroll”、“interact with the page”或“scrape failed”时激活。

Stars 0
uiauthapirag

AI / LLM / Agent skills

tavily-research

tavily-research

9.1K

通过 Tavily CLI 执行带引用的全面 AI 驱动研究。当用户需要深度研究、详细报告、对比分析、市场分析、文献综述,或提及“research”、“investigate”、“analyze in depth”、“compare X vs Y”、“what does the market look like for”,以及需要带明确引用的多源综合分析时,请使用此技能。返回基于网络来源的结构化报告。耗时 30-120 秒。如需快速查找事实,请改用 tavily-search。

Stars 0
uiauthapiagent

Frontend / UI

insforge

insforge

8.0K

在编写使用 InsForge 或 @insforge/sdk 的应用代码时使用此技能:数据库 CRUD、身份验证、存储上传/存储 RLS、函数、AI、实时、电子邮件、Stripe 结账、订阅、客户门户流程,或将兼容 S3 的工具(aws CLI、AWS SDKs、rclone、Terraform、boto3)指向 InsForge Storage。在遇到添加身份验证、获取数据、上传文件、将存储桶设为公开、添加结账、售卖订阅或发送电子邮件等请求时触发。对于基础设施、SQL 迁移、CLI 命令或 Stripe 密钥/目录设置,请改用 insforge-cli。

Stars 0
reactnextjsvuetailwind

DevOps / Deployment

insforge-cli

insforge-cli

7.9K

当通过 CLI 管理 InsForge 基础设施时使用此技能:项目、SQL、迁移、RLS 策略、函数、存储桶、前端部署、计算服务、密钥/环境变量、Stripe 支付密钥/目录/产品/价格/Webhook、定时任务、日志、诊断、导入/导出,或**管理后端分支**(创建分支项目以测试高风险的 schema/认证/RLS 更改,将分支合并回生产环境,解决合并冲突)。对于使用 @insforge/sdk 的应用代码,请改用 insforge 技能。

Stars 0
reactnextjsfrontendbackend

AI / LLM / Agent skills

gpt-image-2

gpt-image-2

4.6K

在 RunComfy 上使用 OpenAI GPT Image 2 (ChatGPT Images 2.0) 生成和编辑图像。文档涵盖了 GPT Image 2 的优势(文本嵌入、Logo、多语言排版、指令精准度)、其 3 种固定尺寸、保留内容的编辑语言,以及何时应转交同级模型(Flux 2 / Nano Banana Pro / Seedream)处理。通过本地 RunComfy CLI 调用 `runcomfy run openai/gpt-image-2/text-to-image` 或 `/edit`。触发词为“gpt image 2”、“gpt-image-2”、“ChatGPT Images 2”、“image 2”,或任何明确要求使用此模型进行生成或编辑的指令。

Stars 0
uiuxsecurityapi

Productivity / General

Home Assistant 最佳实践

home-assistant-best-practices

2.9K

Home Assistant 自动化、辅助元素、脚本、设备控制和仪表盘的最佳实践。在以下情况触发此技能: - 创建/编辑自动化、脚本、场景或仪表盘 - 在模板传感器和内置辅助元素之间做选择 - 编写或重构触发器、条件或自动化模式 - 设置 Zigbee 按钮/遥控器自动化(ZHA 或 Zigbee2MQTT) - 重命名实体或将 device_id 迁移为 entity_id - 配置仪表盘卡片或选择辅助元素为其提供数据 - 查询卡片类型或特定领域的文档 症状: - 智能体在存在原生条件/触发器/辅助元素的地方使用了 Jinja2 模板 - 智能体使用 device_id 而不是 entity_id - 智能体在未检查依赖项的情况下修改实体 ID - 智能体选择了错误的自动化模式(例如,运动感应灯使用了 single 模式) - 智能体硬编码值,或选择原始传感器而非派生辅助元素 - 智能体编辑 `.storage/` 文件、编写原始 YAML 或生成 YAML 代码片段 - 智能体告诉用户为通过 UI 配置的集成编辑 configuration.yaml

Stars 0
designuiapidatabase

Frontend / UI

文档查找

documentation-lookup

2.8K

通过 Context7 MCP 使用最新的库和框架文档,而非训练数据。在涉及配置问题、API 参考、代码示例或当……时激活。

Stars 0
reactnextjsvuetailwind

1 / 2

上一页下一页