搜索结果
identity
找到 15 个相关结果
Cloud / Azure / Infra
Azure 验证
azure-validate
面向 Azure 就绪状态的部署前验证。对配置、基础设施(Bicep 或 Terraform)、RBAC 角色分配、托管标识等运行深度检查……
Cloud / Azure / Infra
Azure RBAC
azure-rbac
帮助用户为标识找到符合最小权限原则的 Azure RBAC 角色,然后生成用于分配的 CLI 命令和 Bicep 代码。此外还提供…
Cloud / Azure / Infra
Azure 企业基础架构规划器
azure-enterprise-infra-planner
根据工作负载描述,架构设计并配置企业级 Azure 基础设施。面向规划网络、身份等内容的云架构师和平台工程师。
AI / LLM / Agent skills
图像转视频
image-to-video
在 RunComfy 上让任何静态图像动起来——此技能是一个智能路由器,能将用户意图匹配到 RunComfy 目录中合适的 i2v 模型。常规动画选取 HappyHorse 1.0 I2V(Arena #1、原生音频、保持身份特征),带 `audio_url` 的自定义配音口型同步选取 Wan 2.7,基于“图像 + 参考视频 + 参考音频”的多模态动画选取 Seedance 2.0 Pro。内置各模型的文档化提示词模式,让调用者获得更精准的输出,避免在错误的模型上浪费迭代次数。通过本地 RunComfy CLI 调用 `runcomfy run <vendor>/<model>/image-to-video`(或其端点变体)。触发词包括“image to video”、“image-to-video”、“i2v”、“animate image”、“make this move”,或任何将静态图像转换为视频的明确请求。
AI / LLM / Agent skills
视频编辑
video-edit
在 RunComfy 上编辑现有视频 — 此技能是一个智能路由器,可将用户意图匹配到 RunComfy 目录中合适的编辑模型。支持选择 Wan 2.7 Edit-Video(通用风格重绘 / 背景替换 / 包装替换,保留身份特征与运动轨迹)、Kling 2.6 Pro Motion Control(将参考视频中的精确动作迁移至目标角色),或 Lucy Edit Restyle(轻量级且身份特征稳定的风格重绘 / 服装替换)。内置各模型文档化的提示词模式,使该技能能获得更精准的编辑效果,避免在错误的模型上浪费迭代次数。通过本地 RunComfy CLI 调用 `runcomfy run <vendor>/<model>/<endpoint>`。触发词包括:“video edit”、“edit video”、“restyle video”、“swap video background”、“motion control”、“outfit swap video”,或任何明确要求转换视频的指令。
AI / LLM / Agent skills
nano-banana-edit
nano-banana-edit
在 RunComfy 上使用 Google Nano Banana 2(图生图编辑端点)编辑图像。文档说明了 Nano Banana Edit 的优势(保留主体特征、替换背景、使用空间语言进行局部编辑、支持多达 20 张输入的多图批量编辑)、数据结构,以及何时应转而使用 GPT Image 2 edit、Flux Kontext 或 Nano Banana 2 t2i。通过本地 RunComfy CLI 调用 `runcomfy run google/nano-banana-2/edit`。在触发“nano banana edit”、“edit with nano banana”、“image edit nano banana”或任何明确要求使用此模型进行编辑的指令时激活。
AI / LLM / Agent skills
图像编辑
image-edit
在 RunComfy 上编辑图像——此技能是一个智能路由器,可将用户意图匹配至 RunComfy 目录中最合适的编辑模型。支持选择 Nano Banana Edit(批量处理最多 20 张,默认保持身份特征)、OpenAI GPT Image 2 Edit(多语言图像内文本重写、多参考组合、精准布局)、Flux Kontext Pro(单参考高保真局部编辑)或 Z-Image Turbo Inpaint(基于遮罩的精准区域编辑)。内置各模型官方文档的提示词模式,使该技能能获得更精准的编辑效果,避免在错误的模型上浪费迭代次数。通过本地 RunComfy CLI 调用 `runcomfy run <vendor>/<model>/edit`。触发词包括“image edit”、“edit image”、“image-to-image”、“i2i”、“swap background”、“remove object”、“rewrite headline”,或任何明确要求编辑单张或批量图像的指令。
Frontend / UI
Convex 设置认证
convex-setup-auth
设置 Convex 认证、身份映射和访问控制。用于登录和认证。
DevOps / Deployment
entra-agent-id
entra-agent-id
通过 Microsoft Graph 预配 Microsoft Entra Agent Identity Blueprint、BlueprintPrincipals 以及每个实例的 Agent Identity,并配置 OAuth 2.0 token…
AI / LLM / Agent skills
kling-3-0
kling-3-0
在 RunComfy 上使用 Kling 3.0 生成视频。Kling 3.0(亦称 Kling V3.0)是快手科技推出的第三代多镜头视频模型,具备原生同步音频功能,且能在多镜头间保持角色一致性。本技能涵盖全部六个 Kling 3.0 端点,横跨三个渲染级别(Standard、Pro、4K)与两种模式(text-to-video、image-to-video)。通过本地 RunComfy CLI 执行命令 runcomfy run kling/kling-3.0/<tier>/<mode>。当出现“kling”、“kling 3.0”、“kling v3”、“kling pro”、“kling 4k”、“kling text to video”、“kling image to video”,或任何明确要求使用 Kling 3.0 进行生成或制作动画的指令时触发。
AI / LLM / Agent skills
品牌套件
brandkit
用于创建高端品牌规范板、标志系统、标识演示文稿和视觉世界展示的高级品牌套件图像生成技能。经过训练……
Frontend / UI
higgsfield-generate
higgsfield-generate
通过 Higgsfield AI 生成图像/视频。默认配置:图像/设计/文本使用 GPT Image 2,视频使用 Seedance 2.0,角色/参考图处理使用 Nano Banana 2/Pro,结合虚拟形象/产品/钩子、设置制作广告使用 Marketing Studio,另支持 Soul V2/Cinema/Cast/Location 及 Kling 3.0。适用场景:“生成图像”、“制作视频”、“让照片动起来”、“图生视频”、“编辑/风格化/混剪此图像”、“制作片段”、“创建广告”、“制作 UGC 视频”、“产品演示”、“开箱视频”、“品牌视频”、“主持人视频”、“从 URL 导入产品”、“为广告创建虚拟形象”或“分析视频爆款潜力”。支持图生图、图生视频、参考图、任务/上传 ID 以及 Marketing Studio。与 higgsfield-soul-id 链接使用以保持面部/身份一致性。爆款预测器 (`brain_activity`) 可分析视频爆款潜力:钩子强度、注意力、留存率、干扰风险和创意得分。不适用于:Soul 角色训练(请使用 higgsfield-soul-id)、产品拍摄、商城上架卡片、文本/聊天/TTS 任务。
Frontend / UI
品牌落地页
brand-landingpage
品牌优先的落地页设计师——通过访谈用户挖掘品牌标识(形容词、色彩、排版、形状语言),随后通过 Stitch 生成并迭代打磨落地页,输出可直接部署的 HTML。当用户尚未确立视觉方向,需要制作独立的落地页或营销页时,优先使用本技能而非 frontend-design。触发条件:用户要求“创建/设计/构建落地页”、“为我的项目/产品/服务制作主页”、“构建营销页”,或希望推广应用/副项目。特别是当用户尚未定义品牌颜色、字体或视觉风格时——引导式的品牌访谈是其核心价值。不触发条件:用户已有具体设计稿需要实现、想要构建仪表盘或应用 UI、需要组件级的前端开发(按钮、表单、导航栏)、正在构建多页应用,或使用已知设计令牌重新设计现有页面。在这些情况下,请使用 frontend-design。
AI / LLM / Agent skills
higgsfield-soul-id
higgsfield-soul-id
训练一个 Soul Character —— 基于人脸的个性化模型,Higgsfield 使用该模型进行身份保真的图像和视频生成。适用场景:“create my Soul”、“train my face”、“make my digital twin”、“build me an avatar”、“learn my appearance”、“create a character of me”、“set up identity for video”、“I want my face in generated images”。调用链:训练 Soul(一次性操作,返回 reference_id) → 在 higgsfield-generate 中通过 `--soul-id <id>` 配合 `text2image_soul_v2` 或 `soul_cinema_studio` 等模型使用。不适用于:单次人脸替换(请使用带 --image 参数的 higgsfield-generate)、具名角色/非写实头像(请使用带 prompt 参数的 higgsfield-generate)。
AI / LLM / Agent skills
openclaw-persona-forge
openclaw-persona-forge
为 OpenClaw AI Agent 锄造完整的龙虾灵魂方案。根据用户偏好或随机抽卡,输出身份定位、灵魂描述(SOUL.md)、角色化底线规则、名字和头像生图提示词。如当前环境提供已审核的生图 skill,可自动生成统一风格头像图片。当用户需要创建、设计或定制 OpenClaw 龙虾灵魂时使用。不适用于:微调已有 SOUL.md、非 OpenClaw 平台的角色设计、纯工具型无性格 Agent。触发词:龙虾灵魂、虾魂、OpenClaw 灵魂、养虾灵魂、龙虾角色、龙虾定位、龙虾剧本杀角色、龙虾游戏角色、龙虾 NPC、龙虾性格、龙虾背景故事、lobster soul、lobster character、抽卡、随机龙虾、龙虾 SOUL、gacha。