灵感菇

AI 技能的自然生态,你的一句话,蔓延出无限连接。

搜索结果

全部能力

找到 1079 个相关结果

AI / LLM / Agent skills

better-auth 最佳实践

better-auth-best-practices

48.1K

配置 Better Auth 服务端和客户端,设置数据库适配器,管理会话,添加插件以及处理环境变量。当用户提及……时使用。

Stars 0
reactvueuisecurity

AI / LLM / Agent skills

分类

triage

47.2K

通过由分流角色驱动的状态机对议题进行分流。适用于用户想要创建议题、对议题进行分流、审查新提交的 Bug 或功能请求等场景,……

Stars 0
designuitestingagent

AI / LLM / Agent skills

部署到 Vercel

deploy-to-vercel

47.1K

将应用和网站部署到 Vercel。当用户请求执行部署操作时使用,例如“部署我的应用”、“部署并提供链接”、“推送这个……”

Stars 0
uideploymentauthprompt

Frontend / UI

Firebase 托管基础

firebase-hosting-basics

47.0K

用于操作 Firebase Hosting(经典版)的技能。当你需要部署静态 Web 应用、单页应用(SPA)或简单的微服务时,请使用此技能。切勿…

Stars 0
reactnextjsvueui

Frontend / UI

Firebase 应用托管基础

firebase-app-hosting-basics

46.8K

使用 Firebase App Hosting 部署和管理 Web 应用。在部署带有后端的 Next.js/Angular 应用时,请使用此技能。

Stars 0
reactnextjsvuebackend

AI / LLM / Agent skills

gpt-image-2

gpt-image-2

46.6K

在 Claude Code 中使用 GPT Image 2 (ChatGPT Images 2.0) 生成图像,利用现有的 ChatGPT Plus 或 Pro 订阅——无需单独的 OpenAI 访问权限,无按图计费。支持通过本地 Codex CLI 进行文生图、图像编辑、风格迁移和多参考图组合。当触发“gpt image 2”、“gpt-image-2”、“ChatGPT Images 2.0”、“image 2”,或任何明确要求通过用户的 ChatGPT 套餐生成或编辑图像的请求时激活。

Stars 0
uiuxauthapi

DevOps / Deployment

Firebase Data Connect

firebase-data-connect

46.5K

安全地构建和部署 Firebase SQL Connect(又名 Firebase Data Connect)后端。适用于设计包含表和关系的架构时,…

Stars 0
backenddesignuideployment

AI / LLM / Agent skills

压缩

compress

45.9K

将自然语言记忆文件(CLAUDE.md、待办事项、偏好设置)压缩为极简格式以节省输入 token。保留所有技术实质、代码、URL 和结构。压缩版本将覆盖原始文件。人类可读的备份保存为 FILE.original.md。触发方式:/caveman:compress FILEPATH 或 "compress memory file"

Stars 0
uidockerauthapi

AI / LLM / Agent skills

开发-genkit-js

developing-genkit-js

45.4K

使用 Genkit 在 Node.js/TypeScript 中开发 AI 驱动的应用程序。当用户询问有关 JavaScript/TypeScript 中的 Genkit、AI 智能体、流程或工具时使用,…

Stars 0
nextjsdesignuiauth

Frontend / UI

lark-okr

lark-okr

45.2K

飞书 OKR:管理目标与关键结果。查看和编辑 OKR 周期、目标(Objective)、关键结果(Key Result)、对齐关系、量化指标和进展记录。当用户需要查看或创建 OKR、管理目标和关键结果、查看对齐关系时使用。

Stars 0
uiapilarkokr

AI / LLM / Agent skills

开发 Genkit Dart

developing-genkit-dart

45.2K

为 Genkit Dart SDK 生成代码并提供文档。当用户要求在 Dart 中构建 AI 智能体、使用 Genkit 流程或将 LLM 集成到……时使用。

Stars 0
uiapillmprompt

AI / LLM / Agent skills

广告创意

ad-creative

44.4K

当用户希望为任何付费广告生成、迭代或扩展广告创意——包括标题、描述、主要文本或完整的广告变体——时……

Stars 0
uiuxperformancetesting

AI / LLM / Agent skills

图像转视频

image-to-video

44.3K

在 RunComfy 上让任何静态图像动起来——此技能是一个智能路由器,能将用户意图匹配到 RunComfy 目录中合适的 i2v 模型。常规动画选取 HappyHorse 1.0 I2V(Arena #1、原生音频、保持身份特征),带 `audio_url` 的自定义配音口型同步选取 Wan 2.7,基于“图像 + 参考视频 + 参考音频”的多模态动画选取 Seedance 2.0 Pro。内置各模型的文档化提示词模式,让调用者获得更精准的输出,避免在错误的模型上浪费迭代次数。通过本地 RunComfy CLI 调用 `runcomfy run <vendor>/<model>/image-to-video`(或其端点变体)。触发词包括“image to video”、“image-to-video”、“i2v”、“animate image”、“make this move”,或任何将静态图像转换为视频的明确请求。

Stars 0
uisecurityapirag

AI / LLM / Agent skills

seedance-v2

seedance-v2

44.3K

在 RunComfy 上使用 ByteDance Seedance 2.0 Pro 生成电影级短视频。文档说明了 Seedance 2.0 Pro 的优势(多模态参考——最多支持 9 张图像、3 个视频和 3 个音频——同步内嵌音频与自然唇形同步、电影级动作优化)、4-15 秒的时长规范,以及何时应转用 HappyHorse 1.0 / Wan 2.7 / Kling。通过本地 RunComfy CLI 调用 `runcomfy run bytedance/seedance-v2/pro`。在触发“seedance”、“seedance 2”、“seedance v2”、“seedance pro”、“bytedance video”或明确要求使用此模型生成视频时激活。

Stars 0
uitestingsecurityapi

AI / LLM / Agent skills

happyhorse-1-0

happyhorse-1-0

44.2K

在 RunComfy 上使用 HappyHorse 1.0 生成文本到视频。文档说明了 HappyHorse 1.0 的优势(在 Artificial Analysis Video Arena 排名第一,原生 1080p 且内置同步音频,多镜头角色一致性,支持 6 种语言提示词)、时长/宽高比/分辨率规范,以及何时应转用 Wan 2.7 / Seedance 2 / LTX 2。通过本地 RunComfy CLI 调用 `runcomfy run happyhorse/happyhorse-1-0/text-to-video`。当触发词为 "happyhorse"、"happy horse"、"happyhorse 1.0"、"happyhorse video",或任何明确要求使用此模型生成视频的指令时触发。

Stars 0
uisecurityapirag

AI / LLM / Agent skills

冷邮件

cold-email

44.2K

撰写能获得回复的B2B冷邮件及跟进序列。当用户需要编写陌生开发邮件、潜在客户开发邮件、冷邮件……时使用。

Stars 0
designuiperformancerag

AI / LLM / Agent skills

视频编辑

video-edit

44.1K

在 RunComfy 上编辑现有视频 — 此技能是一个智能路由器,可将用户意图匹配到 RunComfy 目录中合适的编辑模型。支持选择 Wan 2.7 Edit-Video(通用风格重绘 / 背景替换 / 包装替换,保留身份特征与运动轨迹)、Kling 2.6 Pro Motion Control(将参考视频中的精确动作迁移至目标角色),或 Lucy Edit Restyle(轻量级且身份特征稳定的风格重绘 / 服装替换)。内置各模型文档化的提示词模式,使该技能能获得更精准的编辑效果,避免在错误的模型上浪费迭代次数。通过本地 RunComfy CLI 调用 `runcomfy run <vendor>/<model>/<endpoint>`。触发词包括:“video edit”、“edit video”、“restyle video”、“swap video background”、“motion control”、“outfit swap video”,或任何明确要求转换视频的指令。

Stars 0
designuisecurityapi

AI / LLM / Agent skills

wan-2-7

wan-2-7

44.0K

在 RunComfy 上使用 Wan 2.7(Wan-AI 的旗舰动态模型)生成文生视频。文档涵盖了 Wan 2.7 的优势(多参考条件控制、通过 `audio_url` 实现音频驱动的唇形同步、更平滑的过渡、提示词扩展)、时长/分辨率/宽高比规范,以及何时应转用 HappyHorse 1.0 / Seedance 2.0 / Kling / LTX 2。通过本地 RunComfy CLI 调用 `runcomfy run wan-ai/wan-2-7/text-to-video`。当触发词为“wan”、“wan 2.7”、“wan-2-7”、“wan video”,或明确要求使用此模型生成视频时激活。

Stars 0
uisecurityapirag

AI / LLM / Agent skills

flux-kontext

flux-kontext

43.9K

在 RunComfy 上使用 Flux 1 Kontext Pro(Black Forest Labs 的精准局部图像编辑模型)编辑图像——内置该模型官方文档中的提示词模式,使该技能能获得比直接调用同一模型更出色的输出效果。文档说明了 Flux Kontext 的优势(单参考图精准局部编辑、强大的提示词控制能力、稳定的高保真输出)、其输入模式(单张图像 + 提示词),以及何时应转而使用 Nano Banana Edit / GPT Image 2 edit / Flux 2 Klein。通过本地 RunComfy CLI 调用 `runcomfy run blackforestlabs/flux-1-kontext/pro/edit`。当触发词为 "flux kontext"、"flux-kontext"、"flux 1 kontext"、"kontext"、"BFL kontext",或任何明确要求使用此模型进行编辑的指令时激活。

Stars 0
designuiuxsecurity

AI / LLM / Agent skills

gpt-image-edit

gpt-image-edit

43.9K

在 RunComfy 上使用 OpenAI GPT Image 2(ChatGPT Images 2.0 的 `/edit` 端点)编辑图像——内置该模型的文档化提示词模式,使该技能比针对同一模型的朴素提示词获得更精准的输出。记录了 GPT Image Edit 的优势(保留语言、多语言图像内文本编辑、最多支持 10 张图像的多重参考、布局/排版精度)、数据架构,以及何时应路由至 Nano Banana Edit / Flux Kontext / GPT Image 2 t2i。通过本地 RunComfy CLI 调用 `runcomfy run openai/gpt-image-2/edit`。在触发词为“gpt image edit”、“gpt-image-edit”、“chatgpt image edit”、“edit with gpt image 2”,或任何明确要求使用此模型进行编辑时触发。

Stars 0
uiuxsecurityapi

10 / 54