搜索结果
point
找到 10 个相关结果 / AI / LLM
AI / LLM / Agent skills
执行计划
executing-plans
当您已有书面实施计划,需要在带有审查检查点的独立会话中执行时使用。
AI / LLM / Agent skills
图像转视频
image-to-video
在 RunComfy 上让任何静态图像动起来——此技能是一个智能路由器,能将用户意图匹配到 RunComfy 目录中合适的 i2v 模型。常规动画选取 HappyHorse 1.0 I2V(Arena #1、原生音频、保持身份特征),带 `audio_url` 的自定义配音口型同步选取 Wan 2.7,基于“图像 + 参考视频 + 参考音频”的多模态动画选取 Seedance 2.0 Pro。内置各模型的文档化提示词模式,让调用者获得更精准的输出,避免在错误的模型上浪费迭代次数。通过本地 RunComfy CLI 调用 `runcomfy run <vendor>/<model>/image-to-video`(或其端点变体)。触发词包括“image to video”、“image-to-video”、“i2v”、“animate image”、“make this move”,或任何将静态图像转换为视频的明确请求。
AI / LLM / Agent skills
视频编辑
video-edit
在 RunComfy 上编辑现有视频 — 此技能是一个智能路由器,可将用户意图匹配到 RunComfy 目录中合适的编辑模型。支持选择 Wan 2.7 Edit-Video(通用风格重绘 / 背景替换 / 包装替换,保留身份特征与运动轨迹)、Kling 2.6 Pro Motion Control(将参考视频中的精确动作迁移至目标角色),或 Lucy Edit Restyle(轻量级且身份特征稳定的风格重绘 / 服装替换)。内置各模型文档化的提示词模式,使该技能能获得更精准的编辑效果,避免在错误的模型上浪费迭代次数。通过本地 RunComfy CLI 调用 `runcomfy run <vendor>/<model>/<endpoint>`。触发词包括:“video edit”、“edit video”、“restyle video”、“swap video background”、“motion control”、“outfit swap video”,或任何明确要求转换视频的指令。
AI / LLM / Agent skills
gpt-image-edit
gpt-image-edit
在 RunComfy 上使用 OpenAI GPT Image 2(ChatGPT Images 2.0 的 `/edit` 端点)编辑图像——内置该模型的文档化提示词模式,使该技能比针对同一模型的朴素提示词获得更精准的输出。记录了 GPT Image Edit 的优势(保留语言、多语言图像内文本编辑、最多支持 10 张图像的多重参考、布局/排版精度)、数据架构,以及何时应路由至 Nano Banana Edit / Flux Kontext / GPT Image 2 t2i。通过本地 RunComfy CLI 调用 `runcomfy run openai/gpt-image-2/edit`。在触发词为“gpt image edit”、“gpt-image-edit”、“chatgpt image edit”、“edit with gpt image 2”,或任何明确要求使用此模型进行编辑时触发。
AI / LLM / Agent skills
nano-banana-edit
nano-banana-edit
在 RunComfy 上使用 Google Nano Banana 2(图生图编辑端点)编辑图像。文档说明了 Nano Banana Edit 的优势(保留主体特征、替换背景、使用空间语言进行局部编辑、支持多达 20 张输入的多图批量编辑)、数据结构,以及何时应转而使用 GPT Image 2 edit、Flux Kontext 或 Nano Banana 2 t2i。通过本地 RunComfy CLI 调用 `runcomfy run google/nano-banana-2/edit`。在触发“nano banana edit”、“edit with nano banana”、“image edit nano banana”或任何明确要求使用此模型进行编辑的指令时激活。
AI / LLM / Agent skills
Notion API
notion-api
此技能提供了通过 REST 调用与 Notion API 交互的全面指南。每当用户要求与 Notion 交互时,均应使用此技能,包括读取、创建、更新或删除页面、数据库、块、注释或任何其他 Notion 内容。该技能涵盖了身份验证、所有可用端点、分页、错误处理和最佳实践。
AI / LLM / Agent skills
kling-3-0
kling-3-0
在 RunComfy 上使用 Kling 3.0 生成视频。Kling 3.0(亦称 Kling V3.0)是快手科技推出的第三代多镜头视频模型,具备原生同步音频功能,且能在多镜头间保持角色一致性。本技能涵盖全部六个 Kling 3.0 端点,横跨三个渲染级别(Standard、Pro、4K)与两种模式(text-to-video、image-to-video)。通过本地 RunComfy CLI 执行命令 runcomfy run kling/kling-3.0/<tier>/<mode>。当出现“kling”、“kling 3.0”、“kling v3”、“kling pro”、“kling 4k”、“kling text to video”、“kling image to video”,或任何明确要求使用 Kling 3.0 进行生成或制作动画的指令时触发。
AI / LLM / Agent skills
higgsfield-产品拍摄
higgsfield-product-photoshoot
通过 Higgsfield 的 product-photoshop 提示词增强功能,在 GPT Image 2 / gpt_image_2 上生成品牌级产品图像。专业品牌/产品视觉的入口。适用场景:“产品照片”、“影棚照”、“生活方式图”、“Pinterest Pin”、“主图/Banner”、“轮播图”、“广告创意”、“Meta 广告”、“虚拟试穿”、“模特展示”、“人物手持产品”、“手部特写”、“悬浮/漂浮/水花飞溅产品”、“CGI/超现实产品”、“风格重绘”、“季节/美学变体”,或任何产品、品牌及付费社交媒体创意。模式:product_shot、lifestyle_scene、closeup_product_with_person、moodboard_pin、hero_banner、social_carousel、ad_creative_pack、virtual_model_tryout、conceptual_product、restyle。后端会组装最终提示词;切勿手动自由编写。不适用于:无产品的文本生成图像(请使用 higgsfield-generate)、品牌化身视频(请使用 higgsfield-generate Marketing Studio)、电商商品列表卡片(请使用 higgsfield-marketplace-cards)、Soul Character 训练(请使用 higgsfield-soul-id)。
AI / LLM / Agent skills
google-agents-cli-workflow
google-agents-cli-workflow
当用户希望“开发智能体”、“使用 ADK 构建智能体”、“在本地运行智能体”、“调试智能体代码”、“测试智能体”、“部署智能体”、“发布智能体”、“监控智能体”,或需要 ADK (Agent Development Kit) 开发生命周期与编码规范时,应使用此技能。它是构建 ADK 智能体的入口。始终处于激活状态——提供完整的工作流(脚手架、构建、评估、部署、发布、监控)、代码保留规则、模型选择指南,以及针对 ADK 或任何智能体开发的故障排除步骤。
AI / LLM / Agent skills
HIPAA 合规性
hipaa-compliance
针对医疗隐私与安全的 HIPAA 专用入口。当任务明确围绕 HIPAA、PHI 处理、受覆盖实体、BAAs 等展开时使用。