metadata
license: apache-2.0
task_categories:
- text-to-video
- image-to-video
language:
- en
size_categories:
- n<1K
信息
我们可以参考这些数据来确定数据混合比例。对于相同的角色,详细描述有 46 个训练样本,场景和通用信息描述有 166 个训练样本,通过 1e-3 的学习率和 1000-2000 步可以再现角色图像。
- 每个视频的长度为
6
秒。 - 视频的帧率为
12
帧每秒。 - 视频分辨率为
宽=720 , 高=960
。
数据集格式
.
├── README.md
├── captions.txt
├── videos
└── videos.txt
使用方法
import os
from datasets import Dataset, DatasetDict
dataset_dir = 'lora_dataset/Dance-VideoGeneration-Dataset'
captions_file = os.path.join(dataset_dir, 'captions.txt')
videos_file = os.path.join(dataset_dir, 'videos.txt')
with open(captions_file, 'r', encoding='utf-8') as f:
captions = f.readlines()
with open(videos_file, 'r', encoding='utf-8') as f:
video_paths = f.readlines()
captions = [caption.strip() for caption in captions]
video_paths = [video_path.strip() for video_path in video_paths]
assert len(captions) == len(video_paths), f"captions.txt {len(captions)} 和 videos.txt {len(video_paths)} 行数不匹配"
data = {
'text': captions,
'video': video_paths
}
dataset = Dataset.from_dict(data)
dataset_dict = DatasetDict({
'train': dataset
})
dataset_dict
以下是我们公开发布的 SAT 微调代码中 diffusers 框架的一些关键区别:
- LoRA 权重具有 rank 参数,2B 转换模型默认为 128 的 rank,5B 转换模型默认为 256 的 rank。
- lora_scale 计算为 alpha / lora_r,其中 alpha 通常在 SAT 训练期间设置为 1,以确保稳定性并防止下溢。
- 更高的 rank 提供了更好的表达能力,但它也需要更多的内存,并导致更长的训练时间。
许可
该数据集依据 Apache-2.0 许可证发布。