搜索结果
video
找到 22 个相关结果 / AI / LLM
AI / LLM / Agent skills
wonda-cli
wonda-cli
使用 Wonda CLI 从终端生成图像、视频、音乐和音频——以及 LinkedIn、Reddit 和 X/Twitter 的调研与自动化
AI / LLM / Agent skills
AI视频生成
ai-video-generation
ai-video-generation — 一项面向 AI 智能体的可安装技能,由 inference-sh-skills/skills 发布。
AI / LLM / Agent skills
AI数字人视频
ai-avatar-video
ai-avatar-video — 一项面向 AI 智能体的可安装技能,由 inference-sh-skills/skills 发布。
AI / LLM / Agent skills
图像转视频
image-to-video
在 RunComfy 上让任何静态图像动起来——此技能是一个智能路由器,能将用户意图匹配到 RunComfy 目录中合适的 i2v 模型。常规动画选取 HappyHorse 1.0 I2V(Arena #1、原生音频、保持身份特征),带 `audio_url` 的自定义配音口型同步选取 Wan 2.7,基于“图像 + 参考视频 + 参考音频”的多模态动画选取 Seedance 2.0 Pro。内置各模型的文档化提示词模式,让调用者获得更精准的输出,避免在错误的模型上浪费迭代次数。通过本地 RunComfy CLI 调用 `runcomfy run <vendor>/<model>/image-to-video`(或其端点变体)。触发词包括“image to video”、“image-to-video”、“i2v”、“animate image”、“make this move”,或任何将静态图像转换为视频的明确请求。
AI / LLM / Agent skills
seedance-v2
seedance-v2
在 RunComfy 上使用 ByteDance Seedance 2.0 Pro 生成电影级短视频。文档说明了 Seedance 2.0 Pro 的优势(多模态参考——最多支持 9 张图像、3 个视频和 3 个音频——同步内嵌音频与自然唇形同步、电影级动作优化)、4-15 秒的时长规范,以及何时应转用 HappyHorse 1.0 / Wan 2.7 / Kling。通过本地 RunComfy CLI 调用 `runcomfy run bytedance/seedance-v2/pro`。在触发“seedance”、“seedance 2”、“seedance v2”、“seedance pro”、“bytedance video”或明确要求使用此模型生成视频时激活。
AI / LLM / Agent skills
happyhorse-1-0
happyhorse-1-0
在 RunComfy 上使用 HappyHorse 1.0 生成文本到视频。文档说明了 HappyHorse 1.0 的优势(在 Artificial Analysis Video Arena 排名第一,原生 1080p 且内置同步音频,多镜头角色一致性,支持 6 种语言提示词)、时长/宽高比/分辨率规范,以及何时应转用 Wan 2.7 / Seedance 2 / LTX 2。通过本地 RunComfy CLI 调用 `runcomfy run happyhorse/happyhorse-1-0/text-to-video`。当触发词为 "happyhorse"、"happy horse"、"happyhorse 1.0"、"happyhorse video",或任何明确要求使用此模型生成视频的指令时触发。
AI / LLM / Agent skills
视频编辑
video-edit
在 RunComfy 上编辑现有视频 — 此技能是一个智能路由器,可将用户意图匹配到 RunComfy 目录中合适的编辑模型。支持选择 Wan 2.7 Edit-Video(通用风格重绘 / 背景替换 / 包装替换,保留身份特征与运动轨迹)、Kling 2.6 Pro Motion Control(将参考视频中的精确动作迁移至目标角色),或 Lucy Edit Restyle(轻量级且身份特征稳定的风格重绘 / 服装替换)。内置各模型文档化的提示词模式,使该技能能获得更精准的编辑效果,避免在错误的模型上浪费迭代次数。通过本地 RunComfy CLI 调用 `runcomfy run <vendor>/<model>/<endpoint>`。触发词包括:“video edit”、“edit video”、“restyle video”、“swap video background”、“motion control”、“outfit swap video”,或任何明确要求转换视频的指令。
AI / LLM / Agent skills
wan-2-7
wan-2-7
在 RunComfy 上使用 Wan 2.7(Wan-AI 的旗舰动态模型)生成文生视频。文档涵盖了 Wan 2.7 的优势(多参考条件控制、通过 `audio_url` 实现音频驱动的唇形同步、更平滑的过渡、提示词扩展)、时长/分辨率/宽高比规范,以及何时应转用 HappyHorse 1.0 / Seedance 2.0 / Kling / LTX 2。通过本地 RunComfy CLI 调用 `runcomfy run wan-ai/wan-2-7/text-to-video`。当触发词为“wan”、“wan 2.7”、“wan-2-7”、“wan video”,或明确要求使用此模型生成视频时激活。
AI / LLM / Agent skills
pexo-agent
pexo-agent
当用户想要制作短视频(5–120秒)时使用此技能。支持任何视频类型:产品广告、TikTok/Instagram/YouTube内容、品牌视频、解说视频、社交媒体片段。适用于:视频制作、AI视频、制作视频、产品视频、品牌视频、宣传短片、解说视频、短视频。
AI / LLM / Agent skills
kling-3-0
kling-3-0
在 RunComfy 上使用 Kling 3.0 生成视频。Kling 3.0(亦称 Kling V3.0)是快手科技推出的第三代多镜头视频模型,具备原生同步音频功能,且能在多镜头间保持角色一致性。本技能涵盖全部六个 Kling 3.0 端点,横跨三个渲染级别(Standard、Pro、4K)与两种模式(text-to-video、image-to-video)。通过本地 RunComfy CLI 执行命令 runcomfy run kling/kling-3.0/<tier>/<mode>。当出现“kling”、“kling 3.0”、“kling v3”、“kling pro”、“kling 4k”、“kling text to video”、“kling image to video”,或任何明确要求使用 Kling 3.0 进行生成或制作动画的指令时触发。
AI / LLM / Agent skills
seedance2-api
seedance2-api
开箱即用的 Seedance 2.0 API 技能 —— 只需一个 API 密钥即可生成 AI 视频。支持构建故事板、使用 Seedream 4.5 生成参考图像、提交视频……
AI / LLM / Agent skills
higgsfield-产品拍摄
higgsfield-product-photoshoot
通过 Higgsfield 的 product-photoshop 提示词增强功能,在 GPT Image 2 / gpt_image_2 上生成品牌级产品图像。专业品牌/产品视觉的入口。适用场景:“产品照片”、“影棚照”、“生活方式图”、“Pinterest Pin”、“主图/Banner”、“轮播图”、“广告创意”、“Meta 广告”、“虚拟试穿”、“模特展示”、“人物手持产品”、“手部特写”、“悬浮/漂浮/水花飞溅产品”、“CGI/超现实产品”、“风格重绘”、“季节/美学变体”,或任何产品、品牌及付费社交媒体创意。模式:product_shot、lifestyle_scene、closeup_product_with_person、moodboard_pin、hero_banner、social_carousel、ad_creative_pack、virtual_model_tryout、conceptual_product、restyle。后端会组装最终提示词;切勿手动自由编写。不适用于:无产品的文本生成图像(请使用 higgsfield-generate)、品牌化身视频(请使用 higgsfield-generate Marketing Studio)、电商商品列表卡片(请使用 higgsfield-marketplace-cards)、Soul Character 训练(请使用 higgsfield-soul-id)。
AI / LLM / Agent skills
higgsfield-soul-id
higgsfield-soul-id
训练一个 Soul Character —— 基于人脸的个性化模型,Higgsfield 使用该模型进行身份保真的图像和视频生成。适用场景:“create my Soul”、“train my face”、“make my digital twin”、“build me an avatar”、“learn my appearance”、“create a character of me”、“set up identity for video”、“I want my face in generated images”。调用链:训练 Soul(一次性操作,返回 reference_id) → 在 higgsfield-generate 中通过 `--soul-id <id>` 配合 `text2image_soul_v2` 或 `soul_cinema_studio` 等模型使用。不适用于:单次人脸替换(请使用带 --image 参数的 higgsfield-generate)、具名角色/非写实头像(请使用带 prompt 参数的 higgsfield-generate)。
AI / LLM / Agent skills
higgsfield-marketplace-cards
higgsfield-marketplace-cards
通过 Higgsfield 生成电商商品主图卡片:合规主图、商品副图以及 A+ 页面内容模块。当用户要求生成电商上架图片、商品详情卡片、商品副图、产品信息图、场景展示图、A+ 页面内容、电商图片集或可直接销售的产品视觉图时使用此技能。后端维护电商合规参考与提示词模板;此技能仅将用户意图路由至 CLI。不适用于无电商/上架上下文的常规品牌产品摄影(请使用 higgsfield-product-photoshoot)、视频生成或 UGC 广告(请使用 higgsfield-generate),以及 Soul 角色训练(请使用 higgsfield-soul-id)。
AI / LLM / Agent skills
视频
video
当用户希望使用 AI 工具或编程框架创建、生成或制作视频内容时使用。当用户提到“video…”时也可使用。
AI / LLM / Agent skills
baoyu-youtube-transcript
baoyu-youtube-transcript
通过 URL 或视频 ID 下载 YouTube 视频的字幕和封面图。支持多语言、翻译、章节划分和说话人……
AI / LLM / Agent skills
此时此地
here-now
here.now 让智能体能够发布网站并在云盘中存储私有文件。使用 Sites 将 HTML、文档、图像、PDF、视频和静态文件发布至 {slug}.here.now 或自定义域名的在线 URL。使用 Drives 作为私有云文件夹,智能体可在其中存储文件(文档、上下文、记忆、计划、资产、媒体、研究、代码等),与其他智能体共享文件,并能在跨会话和工具间保持连续性。当遇到要求“发布这个”、“托管这个”、“部署这个”、“在网络上分享这个”、“制作一个网站”、“把这个放到网上”、“创建一个网页”、“生成一个 URL”、“构建一个聊天机器人”、“把这个保存到我的 Drive”、“存储这个以备后用”、“把这个写入云存储”、“与另一个智能体共享文件夹”或“使用我的 here.now Drive”时,请使用此工具。
AI / LLM / Agent skills
图像转视频
image-to-video
图像生成视频 — 一项面向 AI 智能体的可安装技能,由 inference-sh-skills/skills 发布。
AI / LLM / Agent skills
fal AI 媒体
fal-ai-media
通过 fal.ai MCP 统一生成媒体——图像、视频和音频。涵盖文生图(Nano Banana)、文/图生视频(Seedance、Kling、Veo 3),…
AI / LLM / Agent skills
p-video
p-video
p-video — 一项面向 AI 智能体的可安装技能,由 inference-sh-skills/skills 发布。
第 1 / 2 页