搜索结果
github
找到 111 个相关结果 / Agent skills
AI / LLM / Agent skills
查找技能
find-skills
当用户提出“我该如何做 X”、“为 X 找一个技能”、“有没有可以……的技能”等问题,或表达…
AI / LLM / Agent skills
skills-cli
skills-cli
当用户要求发现、安装、列出、检查、更新、移除、备份、恢复、同步或初始化 Agent Skills 时使用,提及 `bunx skills`、`npx skills`…
AI / LLM / Agent skills
通过 LiteLLM Copilot 运行 Claude Code
running-claude-code-via-litellm-copilot
当通过本地 LiteLLM 代理将 Claude Code 路由至 GitHub Copilot 时使用,以减少 Anthropic 的直接开销,配置 ANTHROPIC_BASE_URL 或……
AI / LLM / Agent skills
readme-i18n
readme-i18n
当用户想要翻译仓库 README、使仓库支持多语言、本地化文档、添加语言切换功能、国际化 README,或…
AI / LLM / Agent skills
tzst
tzst
当用户需要针对 `.tzst` 或 `.tar.zst` 归档文件创建、提取、展平、列出、测试、安装、编写脚本或排查 `tzst` CLI 工作流故障时使用,…
AI / LLM / Agent skills
改进代码库架构
improve-codebase-architecture
在代码库中寻找深化重构的机会,结合 CONTEXT.md 中的领域语言和 docs/adr/ 中的架构决策。当用户想要改进……时使用。
AI / LLM / Agent skills
浏览器使用
browser-use
自动化浏览器交互,用于 Web 测试、表单填写、截图和数据提取。当用户需要浏览网站、与 Web 交互时使用…
AI / LLM / Agent skills
caveman-help
caveman-help
所有 caveman 模式、技能和命令的快速参考卡。一次性展示,非持久模式。触发方式:/caveman-help、"caveman help"、"what caveman commands"、"how do I use caveman"。
AI / LLM / Agent skills
设置 Matt Pocock 技能
setup-matt-pocock-skills
在 AGENTS.md/CLAUDE.md 和 `docs/agents/` 中设置 `## Agent skills` 块,以便工程技能了解此仓库的 Issue 跟踪系统(GitHub 或本地…
AI / LLM / Agent skills
MCP 构建器
mcp-builder
用于创建高质量 MCP (Model Context Protocol) 服务器的指南,该服务器使 LLM 能够通过精心设计的工具与外部服务进行交互。适用于……
AI / LLM / Agent skills
Firebase 基础知识
firebase-basics
使用 Firebase CLI 为 Firebase 提供基础设置、身份验证和项目管理工作流。在检查 Firebase CLI 版本(必须使用 'npx -y firebase-tools@latest --version')、初始化 Firebase 环境、进行身份验证、设置活动项目,或设置 `google-services.json` 或 `GoogleService-Info.plist` 文件时使用。
AI / LLM / Agent skills
Firebase 身份验证基础
firebase-auth-basics
Firebase Authentication 设置与使用指南。当用户的应用需要用户登录、用户管理或使用……进行安全数据访问时,请使用此技能。
AI / LLM / Agent skills
better-auth 最佳实践
better-auth-best-practices
配置 Better Auth 服务端和客户端,设置数据库适配器,管理会话,添加插件以及处理环境变量。当用户提及……时使用。
AI / LLM / Agent skills
gpt-image-2
gpt-image-2
在 Claude Code 中使用 GPT Image 2 (ChatGPT Images 2.0) 生成图像,利用现有的 ChatGPT Plus 或 Pro 订阅——无需单独的 OpenAI 访问权限,无按图计费。支持通过本地 Codex CLI 进行文生图、图像编辑、风格迁移和多参考图组合。当触发“gpt image 2”、“gpt-image-2”、“ChatGPT Images 2.0”、“image 2”,或任何明确要求通过用户的 ChatGPT 套餐生成或编辑图像的请求时激活。
AI / LLM / Agent skills
图像转视频
image-to-video
在 RunComfy 上让任何静态图像动起来——此技能是一个智能路由器,能将用户意图匹配到 RunComfy 目录中合适的 i2v 模型。常规动画选取 HappyHorse 1.0 I2V(Arena #1、原生音频、保持身份特征),带 `audio_url` 的自定义配音口型同步选取 Wan 2.7,基于“图像 + 参考视频 + 参考音频”的多模态动画选取 Seedance 2.0 Pro。内置各模型的文档化提示词模式,让调用者获得更精准的输出,避免在错误的模型上浪费迭代次数。通过本地 RunComfy CLI 调用 `runcomfy run <vendor>/<model>/image-to-video`(或其端点变体)。触发词包括“image to video”、“image-to-video”、“i2v”、“animate image”、“make this move”,或任何将静态图像转换为视频的明确请求。
AI / LLM / Agent skills
seedance-v2
seedance-v2
在 RunComfy 上使用 ByteDance Seedance 2.0 Pro 生成电影级短视频。文档说明了 Seedance 2.0 Pro 的优势(多模态参考——最多支持 9 张图像、3 个视频和 3 个音频——同步内嵌音频与自然唇形同步、电影级动作优化)、4-15 秒的时长规范,以及何时应转用 HappyHorse 1.0 / Wan 2.7 / Kling。通过本地 RunComfy CLI 调用 `runcomfy run bytedance/seedance-v2/pro`。在触发“seedance”、“seedance 2”、“seedance v2”、“seedance pro”、“bytedance video”或明确要求使用此模型生成视频时激活。
AI / LLM / Agent skills
happyhorse-1-0
happyhorse-1-0
在 RunComfy 上使用 HappyHorse 1.0 生成文本到视频。文档说明了 HappyHorse 1.0 的优势(在 Artificial Analysis Video Arena 排名第一,原生 1080p 且内置同步音频,多镜头角色一致性,支持 6 种语言提示词)、时长/宽高比/分辨率规范,以及何时应转用 Wan 2.7 / Seedance 2 / LTX 2。通过本地 RunComfy CLI 调用 `runcomfy run happyhorse/happyhorse-1-0/text-to-video`。当触发词为 "happyhorse"、"happy horse"、"happyhorse 1.0"、"happyhorse video",或任何明确要求使用此模型生成视频的指令时触发。
AI / LLM / Agent skills
视频编辑
video-edit
在 RunComfy 上编辑现有视频 — 此技能是一个智能路由器,可将用户意图匹配到 RunComfy 目录中合适的编辑模型。支持选择 Wan 2.7 Edit-Video(通用风格重绘 / 背景替换 / 包装替换,保留身份特征与运动轨迹)、Kling 2.6 Pro Motion Control(将参考视频中的精确动作迁移至目标角色),或 Lucy Edit Restyle(轻量级且身份特征稳定的风格重绘 / 服装替换)。内置各模型文档化的提示词模式,使该技能能获得更精准的编辑效果,避免在错误的模型上浪费迭代次数。通过本地 RunComfy CLI 调用 `runcomfy run <vendor>/<model>/<endpoint>`。触发词包括:“video edit”、“edit video”、“restyle video”、“swap video background”、“motion control”、“outfit swap video”,或任何明确要求转换视频的指令。
AI / LLM / Agent skills
wan-2-7
wan-2-7
在 RunComfy 上使用 Wan 2.7(Wan-AI 的旗舰动态模型)生成文生视频。文档涵盖了 Wan 2.7 的优势(多参考条件控制、通过 `audio_url` 实现音频驱动的唇形同步、更平滑的过渡、提示词扩展)、时长/分辨率/宽高比规范,以及何时应转用 HappyHorse 1.0 / Seedance 2.0 / Kling / LTX 2。通过本地 RunComfy CLI 调用 `runcomfy run wan-ai/wan-2-7/text-to-video`。当触发词为“wan”、“wan 2.7”、“wan-2-7”、“wan video”,或明确要求使用此模型生成视频时激活。
AI / LLM / Agent skills
flux-kontext
flux-kontext
在 RunComfy 上使用 Flux 1 Kontext Pro(Black Forest Labs 的精准局部图像编辑模型)编辑图像——内置该模型官方文档中的提示词模式,使该技能能获得比直接调用同一模型更出色的输出效果。文档说明了 Flux Kontext 的优势(单参考图精准局部编辑、强大的提示词控制能力、稳定的高保真输出)、其输入模式(单张图像 + 提示词),以及何时应转而使用 Nano Banana Edit / GPT Image 2 edit / Flux 2 Klein。通过本地 RunComfy CLI 调用 `runcomfy run blackforestlabs/flux-1-kontext/pro/edit`。当触发词为 "flux kontext"、"flux-kontext"、"flux 1 kontext"、"kontext"、"BFL kontext",或任何明确要求使用此模型进行编辑的指令时激活。
第 1 / 6 页