灵感菇

AI 技能的自然生态,你的一句话,蔓延出无限连接。

搜索结果

video

找到 40 个相关结果

Frontend / UI

remotion 最佳实践

remotion-best-practices

299.7K

Remotion 最佳实践 - 使用 React 创建视频

Stars 0
reacttailwinddesignui

AI / LLM / Agent skills

wonda-cli

wonda-cli

122.0K

使用 Wonda CLI 从终端生成图像、视频、音乐和音频——以及 LinkedIn、Reddit 和 X/Twitter 的调研与自动化

Stars 0
reactdesignuiux

AI / LLM / Agent skills

AI视频生成

ai-video-generation

68.1K

ai-video-generation — 一项面向 AI 智能体的可安装技能,由 inference-sh-skills/skills 发布。

Stars 0
agentagentsvideogeneration

AI / LLM / Agent skills

AI数字人视频

ai-avatar-video

67.7K

ai-avatar-video — 一项面向 AI 智能体的可安装技能,由 inference-sh-skills/skills 发布。

Stars 0
agentagentsavatarvideo

AI / LLM / Agent skills

图像转视频

image-to-video

44.3K

在 RunComfy 上让任何静态图像动起来——此技能是一个智能路由器,能将用户意图匹配到 RunComfy 目录中合适的 i2v 模型。常规动画选取 HappyHorse 1.0 I2V(Arena #1、原生音频、保持身份特征),带 `audio_url` 的自定义配音口型同步选取 Wan 2.7,基于“图像 + 参考视频 + 参考音频”的多模态动画选取 Seedance 2.0 Pro。内置各模型的文档化提示词模式,让调用者获得更精准的输出,避免在错误的模型上浪费迭代次数。通过本地 RunComfy CLI 调用 `runcomfy run <vendor>/<model>/image-to-video`(或其端点变体)。触发词包括“image to video”、“image-to-video”、“i2v”、“animate image”、“make this move”,或任何将静态图像转换为视频的明确请求。

Stars 0
uisecurityapirag

AI / LLM / Agent skills

seedance-v2

seedance-v2

44.3K

在 RunComfy 上使用 ByteDance Seedance 2.0 Pro 生成电影级短视频。文档说明了 Seedance 2.0 Pro 的优势(多模态参考——最多支持 9 张图像、3 个视频和 3 个音频——同步内嵌音频与自然唇形同步、电影级动作优化)、4-15 秒的时长规范,以及何时应转用 HappyHorse 1.0 / Wan 2.7 / Kling。通过本地 RunComfy CLI 调用 `runcomfy run bytedance/seedance-v2/pro`。在触发“seedance”、“seedance 2”、“seedance v2”、“seedance pro”、“bytedance video”或明确要求使用此模型生成视频时激活。

Stars 0
uitestingsecurityapi

AI / LLM / Agent skills

happyhorse-1-0

happyhorse-1-0

44.2K

在 RunComfy 上使用 HappyHorse 1.0 生成文本到视频。文档说明了 HappyHorse 1.0 的优势(在 Artificial Analysis Video Arena 排名第一,原生 1080p 且内置同步音频,多镜头角色一致性,支持 6 种语言提示词)、时长/宽高比/分辨率规范,以及何时应转用 Wan 2.7 / Seedance 2 / LTX 2。通过本地 RunComfy CLI 调用 `runcomfy run happyhorse/happyhorse-1-0/text-to-video`。当触发词为 "happyhorse"、"happy horse"、"happyhorse 1.0"、"happyhorse video",或任何明确要求使用此模型生成视频的指令时触发。

Stars 0
uisecurityapirag

AI / LLM / Agent skills

视频编辑

video-edit

44.1K

在 RunComfy 上编辑现有视频 — 此技能是一个智能路由器,可将用户意图匹配到 RunComfy 目录中合适的编辑模型。支持选择 Wan 2.7 Edit-Video(通用风格重绘 / 背景替换 / 包装替换,保留身份特征与运动轨迹)、Kling 2.6 Pro Motion Control(将参考视频中的精确动作迁移至目标角色),或 Lucy Edit Restyle(轻量级且身份特征稳定的风格重绘 / 服装替换)。内置各模型文档化的提示词模式,使该技能能获得更精准的编辑效果,避免在错误的模型上浪费迭代次数。通过本地 RunComfy CLI 调用 `runcomfy run <vendor>/<model>/<endpoint>`。触发词包括:“video edit”、“edit video”、“restyle video”、“swap video background”、“motion control”、“outfit swap video”,或任何明确要求转换视频的指令。

Stars 0
designuisecurityapi

AI / LLM / Agent skills

wan-2-7

wan-2-7

44.0K

在 RunComfy 上使用 Wan 2.7(Wan-AI 的旗舰动态模型)生成文生视频。文档涵盖了 Wan 2.7 的优势(多参考条件控制、通过 `audio_url` 实现音频驱动的唇形同步、更平滑的过渡、提示词扩展)、时长/分辨率/宽高比规范,以及何时应转用 HappyHorse 1.0 / Seedance 2.0 / Kling / LTX 2。通过本地 RunComfy CLI 调用 `runcomfy run wan-ai/wan-2-7/text-to-video`。当触发词为“wan”、“wan 2.7”、“wan-2-7”、“wan video”,或明确要求使用此模型生成视频时激活。

Stars 0
uisecurityapirag

Frontend / UI

超帧

hyperframes

35.8K

在 HyperFrames HTML 中创建视频合成、动画、标题卡、叠加层、字幕、旁白、音频响应视觉效果和场景过渡。适用于……

Stars 0
reactdesignuiux

Frontend / UI

网站转超帧

website-to-hyperframes

33.4K

捕获网站并从中创建 HyperFrames 视频。适用场景:(1) 用户提供 URL 并希望生成视频;(2) 用户要求“捕获这个网站”、“将其转换为视频”或“用我的网站制作宣传片”;(3) 用户需要基于现有网站制作社交广告、产品导览或任何视频;(4) 用户分享链接并要求生成任何类型的视频内容。即使用户只是粘贴了一个 URL,也应使用此技能。

Stars 0
reactdesignuiaudit

Frontend / UI

remotion

remotion

24.9K

使用 Remotion 从 Stitch 项目生成演练视频,支持平滑过渡、缩放和文字叠加效果

Stars 0
reactdesignuiperformance

AI / LLM / Agent skills

pexo-agent

pexo-agent

23.1K

当用户想要制作短视频(5–120秒)时使用此技能。支持任何视频类型:产品广告、TikTok/Instagram/YouTube内容、品牌视频、解说视频、社交媒体片段。适用于:视频制作、AI视频、制作视频、产品视频、品牌视频、宣传短片、解说视频、短视频。

Stars 0
backenduiapiprompt

AI / LLM / Agent skills

kling-3-0

kling-3-0

20.4K

在 RunComfy 上使用 Kling 3.0 生成视频。Kling 3.0(亦称 Kling V3.0)是快手科技推出的第三代多镜头视频模型,具备原生同步音频功能,且能在多镜头间保持角色一致性。本技能涵盖全部六个 Kling 3.0 端点,横跨三个渲染级别(Standard、Pro、4K)与两种模式(text-to-video、image-to-video)。通过本地 RunComfy CLI 执行命令 runcomfy run kling/kling-3.0/<tier>/<mode>。当出现“kling”、“kling 3.0”、“kling v3”、“kling pro”、“kling 4k”、“kling text to video”、“kling image to video”,或任何明确要求使用 Kling 3.0 进行生成或制作动画的指令时触发。

Stars 0
uitestingsecurityapi

Frontend / UI

baoyu-发布到-X

baoyu-post-to-x

18.3K

发布内容与文章至 X (Twitter)。支持带图片/视频的常规帖子以及 X Articles(长篇幅 Markdown)。使用真实的 Chrome 结合 CDP 来绕过…

Stars 0
uiuxsecurityagent

DevOps / Deployment

remotion-to-hyperframes

remotion-to-hyperframes

17.2K

将现有的 Remotion(基于 React)视频组合转换为 HyperFrames HTML 组合。仅在用户明确要求移植、转换…时使用。

Stars 0
reactuitestingdeployment

Frontend / UI

总结

summarize

14.7K

总结或转录 URL、YouTube/视频、播客、文章、文字稿、PDF 及本地文件。

Stars 0
uiapisummarizetranscribe

AI / LLM / Agent skills

seedance2-api

seedance2-api

11.5K

开箱即用的 Seedance 2.0 API 技能 —— 只需一个 API 密钥即可生成 AI 视频。支持构建故事板、使用 Seedream 4.5 生成参考图像、提交视频……

Stars 0
uiapipromptworkflow

Frontend / UI

宝玉-发布到微博

baoyu-post-to-weibo

11.4K

将内容发布到微博。支持包含文本、图片和视频的普通帖子,以及通过 Chrome CDP 输入 Markdown 的头条文章。当需要…时使用

Stars 0
uiuxagentworkflow

Frontend / UI

higgsfield-generate

higgsfield-generate

10.6K

通过 Higgsfield AI 生成图像/视频。默认配置:图像/设计/文本使用 GPT Image 2,视频使用 Seedance 2.0,角色/参考图处理使用 Nano Banana 2/Pro,结合虚拟形象/产品/钩子、设置制作广告使用 Marketing Studio,另支持 Soul V2/Cinema/Cast/Location 及 Kling 3.0。适用场景:“生成图像”、“制作视频”、“让照片动起来”、“图生视频”、“编辑/风格化/混剪此图像”、“制作片段”、“创建广告”、“制作 UGC 视频”、“产品演示”、“开箱视频”、“品牌视频”、“主持人视频”、“从 URL 导入产品”、“为广告创建虚拟形象”或“分析视频爆款潜力”。支持图生图、图生视频、参考图、任务/上传 ID 以及 Marketing Studio。与 higgsfield-soul-id 链接使用以保持面部/身份一致性。爆款预测器 (`brain_activity`) 可分析视频爆款潜力:钩子强度、注意力、留存率、干扰风险和创意得分。不适用于:Soul 角色训练(请使用 higgsfield-soul-id)、产品拍摄、商城上架卡片、文本/聊天/TTS 任务。

Stars 0
backenddesignuiux

1 / 2

上一页下一页