搜索结果
language
找到 17 个相关结果
AI / LLM / Agent skills
readme-i18n
readme-i18n
当用户想要翻译仓库 README、使仓库支持多语言、本地化文档、添加语言切换功能、国际化 README,或…
AI / LLM / Agent skills
改进代码库架构
improve-codebase-architecture
在代码库中寻找深化重构的机会,结合 CONTEXT.md 中的领域语言和 docs/adr/ 中的架构决策。当用户想要改进……时使用。
AI / LLM / Agent skills
caveman-compress
caveman-compress
将自然语言记忆文件(CLAUDE.md、待办事项、偏好设置)压缩为极简格式以节省输入 token。保留所有技术实质内容、代码、URL 和结构。压缩版本将覆盖原始文件。人类可读的备份保存为 FILE.original.md。触发方式:/caveman:compress FILEPATH 或“compress memory file”
AI / LLM / Agent skills
压缩
compress
将自然语言记忆文件(CLAUDE.md、待办事项、偏好设置)压缩为极简格式以节省输入 token。保留所有技术实质、代码、URL 和结构。压缩版本将覆盖原始文件。人类可读的备份保存为 FILE.original.md。触发方式:/caveman:compress FILEPATH 或 "compress memory file"
AI / LLM / Agent skills
happyhorse-1-0
happyhorse-1-0
在 RunComfy 上使用 HappyHorse 1.0 生成文本到视频。文档说明了 HappyHorse 1.0 的优势(在 Artificial Analysis Video Arena 排名第一,原生 1080p 且内置同步音频,多镜头角色一致性,支持 6 种语言提示词)、时长/宽高比/分辨率规范,以及何时应转用 Wan 2.7 / Seedance 2 / LTX 2。通过本地 RunComfy CLI 调用 `runcomfy run happyhorse/happyhorse-1-0/text-to-video`。当触发词为 "happyhorse"、"happy horse"、"happyhorse 1.0"、"happyhorse video",或任何明确要求使用此模型生成视频的指令时触发。
AI / LLM / Agent skills
gpt-image-edit
gpt-image-edit
在 RunComfy 上使用 OpenAI GPT Image 2(ChatGPT Images 2.0 的 `/edit` 端点)编辑图像——内置该模型的文档化提示词模式,使该技能比针对同一模型的朴素提示词获得更精准的输出。记录了 GPT Image Edit 的优势(保留语言、多语言图像内文本编辑、最多支持 10 张图像的多重参考、布局/排版精度)、数据架构,以及何时应路由至 Nano Banana Edit / Flux Kontext / GPT Image 2 t2i。通过本地 RunComfy CLI 调用 `runcomfy run openai/gpt-image-2/edit`。在触发词为“gpt image edit”、“gpt-image-edit”、“chatgpt image edit”、“edit with gpt image 2”,或任何明确要求使用此模型进行编辑时触发。
AI / LLM / Agent skills
nano-banana-edit
nano-banana-edit
在 RunComfy 上使用 Google Nano Banana 2(图生图编辑端点)编辑图像。文档说明了 Nano Banana Edit 的优势(保留主体特征、替换背景、使用空间语言进行局部编辑、支持多达 20 张输入的多图批量编辑)、数据结构,以及何时应转而使用 GPT Image 2 edit、Flux Kontext 或 Nano Banana 2 t2i。通过本地 RunComfy CLI 调用 `runcomfy run google/nano-banana-2/edit`。在触发“nano banana edit”、“edit with nano banana”、“image edit nano banana”或任何明确要求使用此模型进行编辑的指令时激活。
AI / LLM / Agent skills
firecrawl-interact
firecrawl-interact
在任何已抓取的页面上控制并交互实时浏览器会话——点击按钮、填写表单、导航流程,并使用自然语言提示或代码提取数据。当用户需要进行超越简单抓取的网页交互时使用:登录网站、提交表单、点击分页、处理无限滚动、导航多步骤结账或向导流程,或者当常规抓取因内容隐藏在 JavaScript 交互之后而失败时使用。也可用于通过配置文件进行需身份验证的抓取。触发词包括“interact”、“click”、“fill out the form”、“log in to”、“sign in”、“submit”、“paginated”、“next page”、“infinite scroll”、“interact with the page”、“navigate to”、“open a session”或“scrape failed”。
AI / LLM / Agent skills
Excalidraw 图表生成器
excalidraw-diagram-generator
根据自然语言描述生成 Excalidraw 图表。当被要求“创建图表”、“制作流程图”、“可视化流程”、“绘制……”时使用。
AI / LLM / Agent skills
baoyu-translate
baoyu-translate
提供三种模式翻译文章和文档:快速(直接翻译)、标准(先分析后翻译)和精细(分析、翻译、…
AI / LLM / Agent skills
多阶段 Dockerfile
multi-stage-dockerfile
为任意语言或框架创建优化的多阶段 Dockerfile
AI / LLM / Agent skills
错误处理模式
error-handling-patterns
掌握跨语言的错误处理模式,包括异常、Result 类型、错误传播和优雅降级,以构建高弹性……
Frontend / UI
品牌落地页
brand-landingpage
品牌优先的落地页设计师——通过访谈用户挖掘品牌标识(形容词、色彩、排版、形状语言),随后通过 Stitch 生成并迭代打磨落地页,输出可直接部署的 HTML。当用户尚未确立视觉方向,需要制作独立的落地页或营销页时,优先使用本技能而非 frontend-design。触发条件:用户要求“创建/设计/构建落地页”、“为我的项目/产品/服务制作主页”、“构建营销页”,或希望推广应用/副项目。特别是当用户尚未定义品牌颜色、字体或视觉风格时——引导式的品牌访谈是其核心价值。不触发条件:用户已有具体设计稿需要实现、想要构建仪表盘或应用 UI、需要组件级的前端开发(按钮、表单、导航栏)、正在构建多页应用,或使用已知设计令牌重新设计现有页面。在这些情况下,请使用 frontend-design。
AI / LLM / Agent skills
baoyu-youtube-transcript
baoyu-youtube-transcript
通过 URL 或视频 ID 下载 YouTube 视频的字幕和封面图。支持多语言、翻译、章节划分和说话人……
AI / LLM / Agent skills
gpt-image-2
gpt-image-2
在 RunComfy 上使用 OpenAI GPT Image 2 (ChatGPT Images 2.0) 生成和编辑图像。文档涵盖了 GPT Image 2 的优势(文本嵌入、Logo、多语言排版、指令精准度)、其 3 种固定尺寸、保留内容的编辑语言,以及何时应转交同级模型(Flux 2 / Nano Banana Pro / Seedream)处理。通过本地 RunComfy CLI 调用 `runcomfy run openai/gpt-image-2/text-to-image` 或 `/edit`。触发词为“gpt image 2”、“gpt-image-2”、“ChatGPT Images 2”、“image 2”,或任何明确要求使用此模型进行生成或编辑的指令。
Frontend / UI
k-学校午餐菜单
k-schoollunch-menu
当用户通过自然语言提供教育厅和学校名称,询问韩国学校餐菜单(급식 식단)时使用,通过 k-skill-proxy NEIS school-search 以及…
Frontend / UI
查询
query
对附加的 DuckDB 数据库或临时文件运行 SQL 查询。接受原始 SQL 或自然语言提问。使用 DuckDB Friendly SQL 惯用语法。