AI Video Generation技能使用说明
2026-03-28
新闻来源:网淘吧
围观:21
电脑广告
手机广告
设置
首次使用时,请阅读setup.md。
何时使用
用户需要使用当前模型和API生成、编辑或扩展AI视频。 使用此技能可选择合适的当前模型栈,编写更有效的运动提示,并运行可靠的异步视频处理流程。
架构
用户偏好设置持久保存在~/video-generation/目录中。具体设置请参见memory-template.md。
~/video-generation/
├── memory.md # Preferred providers, model routing, reusable shot recipes
└── history.md # Optional run log for jobs, costs, and outputs
快速参考
| 主题 | 文件 |
|---|---|
| 初始设置 | setup.md |
| 内存模板 | memory-template.md |
| 迁移指南 | migration.md |
| 模型快照 | benchmarks.md |
| 异步API模式 | api-patterns.md |
| OpenAI Sora 2 | openai-sora.md |
| Google Veo 3.x | google-veo.md |
| Runway Gen-4 | runway.md |
| Luma Ray | luma.md |
| 字节跳动Seedance | seedance.md |
| Kling | kling.md |
| Vidu | vidu.md |
| 通过Fal的Pika | pika.md |
| MiniMax海螺 | minimax-hailuo.md |
| Replicate路由 | replicate.md |
| 开源本地模型 | open-source-video.md |
| 分发手册 | promotion.md |
核心规则
1. 在调用API之前解析模型别名
首先将社区名称映射到真实的API模型ID。
示例:sora-2、sora-2-pro、veo-3.0-generate-001、gen4_turbo、gen4_aleph。
2. 根据任务而非品牌偏好进行路由
| 任务 | 首选 | 备用 |
|---|---|---|
| 仅提示词的高级生成 | sora-2-pro | veo-3.1-generate-001 |
| 低成本快速草稿 | veo-3.1-fast-generate-001 | gen4_turbo |
| 长篇电影镜头 | gen4_aleph | 射线-2 |
| 强大的图像到视频控制 | 维奥-3.0-生成-001 | 第四代增强版 |
| 多镜头叙事一致性 | 种子舞家族 | 海螺-2.3 |
| 本地优先隐私工作流 | 万2.2 / 混元视频 | 齿轮视频X |
3. 廉价草稿,精细成品
先用短时长和低阶模型验证动作与构图,再用高级模型或更长时间重新渲染优胜者。
4. 将提示词设计为镜头指令
始终包含主体、动作、摄像机运动、镜头风格、灯光和场景时序。 对于参考画面及起止帧,需明确保持连续性约束。
5. 默认采用异步处理并预设失败可能
每个服务商流程必须支持任务队列、轮询/退避、重试、取消,以及在到期前通过签名URL下载。
6. 建立备用链
若首选模型受阻或过载:
- 同一供应商的低层级模型,2) 跨供应商的等效模型,3) 开源模型/本地运行。
常见陷阱
- 在代码中仅使用模型昵称标签 -> 可避免的API故障
- 在验证3-5秒草稿前就推送8-10秒的生成内容 -> 浪费额度
- 生成后再裁剪,而非生成原生比例 -> 构图质量降低
- 忽略提示词增强开关 -> 不同供应商间的风格漂移
- 重用过期的输出URL -> 导出工作流中断
- 将所有供应商视为同步处理 -> 任务停滞和超时处理不当
外部端点
| 供应商 | 端点 | 发送数据 | 目的 |
|---|---|---|---|
| OpenAI | api.openai.com | 提示词文本,可选的输入图像/视频参考 | Sora 2 视频生成 |
| Google Vertex AI | aiplatform.googleapis.com | 提示文本,可选图像输入,生成参数 | Veo 3.x 生成 |
| Runway | api.dev.runwayml.com | 提示文本,可选输入媒体 | Gen-4 生成与图生视频 |
| Luma | api.lumalabs.ai | 提示文本,可选关键帧/起始-结束图像 | Ray 生成 |
| Fal | queue.fal.run | 提示文本,可选输入媒体 | Pika 与 Hailuo 托管 API |
| Replicate | api.replicate.com | 提示文本,可选输入媒体 | 多模型路由与实验 |
| Vidu | api.vidu.com | 提示文本,可选起始/结束/参考图像 | Vidu 文本/图像/参考视频 API |
| 腾讯 MPS | mps.tencentcloudapi.com | 提示文本与生成参数 | 统一的AIGC视频任务API |
没有其他数据被发送至外部。
安全与隐私
离开您设备的数据:
- 提示文本
- 可选的参考图片或片段
- 请求的渲染参数(时长、分辨率、宽高比)
保留在本地设备的数据:
- 提供者偏好设置位于
~/video-generation/memory.md - 可选的本地任务历史记录位于
~/video-generation/history.md
此技能不会:
- 在项目文件中存储API密钥
- 在请求的提供者调用之外上传媒体文件
- 删除本地资产,除非用户要求
信任
此技能可以将提示文本和媒体参考发送给第三方AI提供者。 仅当您信任这些提供者处理您的内容时,才请安装。
相关技能
通过以下命令安装clawhub install <slug>如果用户确认:
图像生成- 在视频生成前构建静态概念图和关键帧图像编辑- 准备干净的参考图、遮罩和风格帧视频编辑- 对生成的剪辑片段和最终导出文件进行后期处理视频字幕- 添加字幕和文本叠加的工作流程ffmpeg- 合成、转码和打包制作输出
反馈
- 如果觉得有用:
clawhub star video-generation - 保持更新:
clawhub sync
文章底部电脑广告
手机广告位-内容正文底部


微信扫一扫,打赏作者吧~