搜索结果
and
找到 268 个相关结果 / AI / LLM
AI / LLM / Agent skills
页面-cro
page-cro
当用户想要优化、改进或提升任何营销页面的转化率时——包括主页、落地页、定价页、功能页或……
AI / LLM / Agent skills
缩小
zoom-out
让 Agent 缩小范围,提供更广泛的上下文或更高层次的视角。当你对某段代码不熟悉或需要了解……时使用。
AI / LLM / Agent skills
Schema 标记
schema-markup
当用户想要在其网站上添加、修复或优化 schema markup 和结构化数据时使用。当用户提到“schema markup”、“结构化……”时也可使用。
AI / LLM / Agent skills
竞品替代方案
competitor-alternatives
当用户希望为 SEO 和销售赋能创建竞品对比或替代方案页面时使用。当用户提及“alternative page”、“vs…”时也可使用。
AI / LLM / Agent skills
firecrawl
firecrawl
通过 Firecrawl CLI 搜索、抓取网页并与 Web 交互。当用户想要搜索网络、查找文章、研究主题、在线查询、抓取网页、从 URL 获取内容、从网站提取数据、爬取文档、下载网站,或与需要点击或登录的页面进行交互时,请使用此技能。当用户说“获取此页面”、“从中提取内容”、“获取位于 https:// 的页面”或提及外部网站时,也应使用此技能。它提供实时网络搜索、完整页面内容获取和交互功能——超越了 Claude 原生内置工具的能力。对于本地文件操作、git 命令、部署或代码编辑任务,请勿触发此技能。
AI / LLM / Agent skills
设置 Matt Pocock 技能
setup-matt-pocock-skills
在 AGENTS.md/CLAUDE.md 和 `docs/agents/` 中设置 `## Agent skills` 块,以便工程技能了解此仓库的 Issue 跟踪系统(GitHub 或本地…
AI / LLM / Agent skills
审计网站
audit-website
使用 squirrelscan CLI 审计网站的 SEO、性能、安全性、技术、内容及其他 15 个问题类别,内含 230+ 条规则。返回…
AI / LLM / Agent skills
Firebase 基础知识
firebase-basics
使用 Firebase CLI 为 Firebase 提供基础设置、身份验证和项目管理工作流。在检查 Firebase CLI 版本(必须使用 'npx -y firebase-tools@latest --version')、初始化 Firebase 环境、进行身份验证、设置活动项目,或设置 `google-services.json` 或 `GoogleService-Info.plist` 文件时使用。
AI / LLM / Agent skills
Firebase 身份验证基础
firebase-auth-basics
Firebase Authentication 设置与使用指南。当用户的应用需要用户登录、用户管理或使用……进行安全数据访问时,请使用此技能。
AI / LLM / Agent skills
better-auth 最佳实践
better-auth-best-practices
配置 Better Auth 服务端和客户端,设置数据库适配器,管理会话,添加插件以及处理环境变量。当用户提及……时使用。
AI / LLM / Agent skills
部署到 Vercel
deploy-to-vercel
将应用和网站部署到 Vercel。当用户请求执行部署操作时使用,例如“部署我的应用”、“部署并提供链接”、“推送这个……”
AI / LLM / Agent skills
gpt-image-2
gpt-image-2
在 Claude Code 中使用 GPT Image 2 (ChatGPT Images 2.0) 生成图像,利用现有的 ChatGPT Plus 或 Pro 订阅——无需单独的 OpenAI 访问权限,无按图计费。支持通过本地 Codex CLI 进行文生图、图像编辑、风格迁移和多参考图组合。当触发“gpt image 2”、“gpt-image-2”、“ChatGPT Images 2.0”、“image 2”,或任何明确要求通过用户的 ChatGPT 套餐生成或编辑图像的请求时激活。
AI / LLM / Agent skills
压缩
compress
将自然语言记忆文件(CLAUDE.md、待办事项、偏好设置)压缩为极简格式以节省输入 token。保留所有技术实质、代码、URL 和结构。压缩版本将覆盖原始文件。人类可读的备份保存为 FILE.original.md。触发方式:/caveman:compress FILEPATH 或 "compress memory file"
AI / LLM / Agent skills
开发 Genkit Dart
developing-genkit-dart
为 Genkit Dart SDK 生成代码并提供文档。当用户要求在 Dart 中构建 AI 智能体、使用 Genkit 流程或将 LLM 集成到……时使用。
AI / LLM / Agent skills
seedance-v2
seedance-v2
在 RunComfy 上使用 ByteDance Seedance 2.0 Pro 生成电影级短视频。文档说明了 Seedance 2.0 Pro 的优势(多模态参考——最多支持 9 张图像、3 个视频和 3 个音频——同步内嵌音频与自然唇形同步、电影级动作优化)、4-15 秒的时长规范,以及何时应转用 HappyHorse 1.0 / Wan 2.7 / Kling。通过本地 RunComfy CLI 调用 `runcomfy run bytedance/seedance-v2/pro`。在触发“seedance”、“seedance 2”、“seedance v2”、“seedance pro”、“bytedance video”或明确要求使用此模型生成视频时激活。
AI / LLM / Agent skills
happyhorse-1-0
happyhorse-1-0
在 RunComfy 上使用 HappyHorse 1.0 生成文本到视频。文档说明了 HappyHorse 1.0 的优势(在 Artificial Analysis Video Arena 排名第一,原生 1080p 且内置同步音频,多镜头角色一致性,支持 6 种语言提示词)、时长/宽高比/分辨率规范,以及何时应转用 Wan 2.7 / Seedance 2 / LTX 2。通过本地 RunComfy CLI 调用 `runcomfy run happyhorse/happyhorse-1-0/text-to-video`。当触发词为 "happyhorse"、"happy horse"、"happyhorse 1.0"、"happyhorse video",或任何明确要求使用此模型生成视频的指令时触发。
AI / LLM / Agent skills
冷邮件
cold-email
撰写能获得回复的B2B冷邮件及跟进序列。当用户需要编写陌生开发邮件、潜在客户开发邮件、冷邮件……时使用。
AI / LLM / Agent skills
wan-2-7
wan-2-7
在 RunComfy 上使用 Wan 2.7(Wan-AI 的旗舰动态模型)生成文生视频。文档涵盖了 Wan 2.7 的优势(多参考条件控制、通过 `audio_url` 实现音频驱动的唇形同步、更平滑的过渡、提示词扩展)、时长/分辨率/宽高比规范,以及何时应转用 HappyHorse 1.0 / Seedance 2.0 / Kling / LTX 2。通过本地 RunComfy CLI 调用 `runcomfy run wan-ai/wan-2-7/text-to-video`。当触发词为“wan”、“wan 2.7”、“wan-2-7”、“wan video”,或明确要求使用此模型生成视频时激活。
AI / LLM / Agent skills
flux-kontext
flux-kontext
在 RunComfy 上使用 Flux 1 Kontext Pro(Black Forest Labs 的精准局部图像编辑模型)编辑图像——内置该模型官方文档中的提示词模式,使该技能能获得比直接调用同一模型更出色的输出效果。文档说明了 Flux Kontext 的优势(单参考图精准局部编辑、强大的提示词控制能力、稳定的高保真输出)、其输入模式(单张图像 + 提示词),以及何时应转而使用 Nano Banana Edit / GPT Image 2 edit / Flux 2 Klein。通过本地 RunComfy CLI 调用 `runcomfy run blackforestlabs/flux-1-kontext/pro/edit`。当触发词为 "flux kontext"、"flux-kontext"、"flux 1 kontext"、"kontext"、"BFL kontext",或任何明确要求使用此模型进行编辑的指令时激活。
AI / LLM / Agent skills
gpt-image-edit
gpt-image-edit
在 RunComfy 上使用 OpenAI GPT Image 2(ChatGPT Images 2.0 的 `/edit` 端点)编辑图像——内置该模型的文档化提示词模式,使该技能比针对同一模型的朴素提示词获得更精准的输出。记录了 GPT Image Edit 的优势(保留语言、多语言图像内文本编辑、最多支持 10 张图像的多重参考、布局/排版精度)、数据架构,以及何时应路由至 Nano Banana Edit / Flux Kontext / GPT Image 2 t2i。通过本地 RunComfy CLI 调用 `runcomfy run openai/gpt-image-2/edit`。在触发词为“gpt image edit”、“gpt-image-edit”、“chatgpt image edit”、“edit with gpt image 2”,或任何明确要求使用此模型进行编辑时触发。