Stable diffusion 3(SD3) Lora训练
使用dreambooth训练自己的stable diffusion 3 Lora微调模型
train_dreambooth_lora_sd3.py参数说明
来自:https://github.com/huggingface/diffusers/blob/main/examples/dreambooth/train_dreambooth_lora_sd3.py
train_dreambooth_lora_sd3.py [-h]
--pretrained_model_name_or_path PRETRAINED_MODEL_NAME_OR_PATH # 预训练模型的名称或路径
[--revision REVISION] # 模型的版本号
[--variant VARIANT] # 模型的变体
[--dataset_name DATASET_NAME] # 数据集的名称
[--dataset_config_name DATASET_CONFIG_NAME] # 数据集配置的名称
[--instance_data_dir INSTANCE_DATA_DIR] # 实例数据的目录
[--cache_dir CACHE_DIR] # 缓存目录
[--image_column IMAGE_COLUMN] # 图像列
[--caption_column CAPTION_COLUMN] # 标题列
[--repeats REPEATS] # 重复次数
[--class_data_dir CLASS_DATA_DIR] # 类别数据的目录
--instance_prompt INSTANCE_PROMPT # 实例提示
[--class_prompt CLASS_PROMPT] # 类别提示
[--validation_prompt VALIDATION_PROMPT] # 验证提示
[--num_validation_images NUM_VALIDATION_IMAGES] # 验证图像的数量
[--validation_epochs VALIDATION_EPOCHS] # 验证的轮数
[--rank RANK] # 排名
[--with_prior_preservation] # 是否保留先验
[--prior_loss_weight PRIOR_LOSS_WEIGHT] # 先验损失权重
[--num_class_images NUM_CLASS_IMAGES] # 类别图像的数量
[--output_dir OUTPUT_DIR] # 输出目录
[--seed SEED] # 随机种子
[--resolution RESOLUTION] # 分辨率
[--center_crop] # 是否进行中心裁剪
[--random_flip] # 是否进行随机翻转
[--train_batch_size TRAIN_BATCH_SIZE] # 训练批次大小
[--sample_batch_size SAMPLE_BATCH_SIZE] # 样本批次大小
[--num_train_epochs NUM_TRAIN_EPOCHS] # 训练的轮数
[--max_train_steps MAX_TRAIN_STEPS] # 最大训练步骤数
[--checkpointing_steps CHECKPOINTING_STEPS] # 检查点步骤数
[--checkpoints_total_limit CHECKPOINTS_TOTAL_LIMIT] # 检查点总数限制
[--resume_from_checkpoint RESUME_FROM_CHECKPOINT] # 从检查点恢复
[--gradient_accumulation_steps GRADIENT_ACCUMULATION_STEPS] # 梯度累积步骤数
[--gradient_checkpointing] # 是否进行梯度检查点
[--learning_rate LEARNING_RATE] # 学习率
[--text_encoder_lr TEXT_ENCODER_LR] # 文本编码器的学习率
[--scale_lr] # 是否缩放学习率
[--lr_scheduler LR_SCHEDULER] # 学习率调度器 (可选值: 'linear', 'cosine', 'cosine_with_restarts', 'polynomial', 'constant', 'constant_with_warmup')
[--lr_warmup_steps LR_WARMUP_STEPS] # 学习率预热步骤数
[--lr_num_cycles LR_NUM_CYCLES] # 学习率循环次数
[--lr_power LR_POWER] # 学习率的幂
[--dataloader_num_workers DATALOADER_NUM_WORKERS] # 数据加载器的工作线程数
[--weighting_scheme {sigma_sqrt,logit_normal,mode}] # 加权方案
[--logit_mean LOGIT_MEAN] # logit的均值
[--logit_std LOGIT_STD] # logit的标准差
[--mode_scale MODE_SCALE] # 模式缩放
[--optimizer OPTIMIZER] # 优化器 (可选值: 'adamw', 'adam', 'sgd')
[--use_8bit_adam] # 是否使用8位Adam优化器
[--adam_beta1 ADAM_BETA1] # Adam优化器的beta1参数
[--adam_beta2 ADAM_BETA2] # Adam优化器的beta2参数
[--prodigy_beta3 PRODIGY_BETA3] # Prodigy优化器的beta3参数
[--prodigy_decouple PRODIGY_DECOUPLE] # 是否解耦Prodigy优化器
[--adam_weight_decay ADAM_WEIGHT_DECAY] # Adam优化器的权重衰减
[--adam_weight_decay_text_encoder ADAM_WEIGHT_DECAY_TEXT_ENCODER] # 文本编码器的Adam优化器权重衰减
[--adam_epsilon ADAM_EPSILON] # Adam优化器的epsilon参数
[--prodigy_use_bias_correction PRODIGY_USE_BIAS_CORRECTION] # 是否使用Prodigy优化器的偏差校正
[--prodigy_safeguard_warmup PRODIGY_SAFEGUARD_WARMUP] # Prodigy优化器的保护预热
[--max_grad_norm MAX_GRAD_NORM] # 最大梯度范数
[--push_to_hub] # 是否推送到Hub
[--hub_token HUB_TOKEN] # Hub的令牌
[--hub_model_id HUB_MODEL_ID] # Hub模型ID
[--logging_dir LOGGING_DIR] # 日志目录
[--allow_tf32] # 是否允许使用TF32
[--report_to REPORT_TO] # 报告到 (可选值: 'tensorboard', 'wandb', 'comet_ml')
[--mixed_precision {no,fp16,bf16}] # 混合精度 (可选值: 'no', 'fp16', 'bf16')
[--prior_generation_precision {no,fp32,fp16,bf16}] # 先验生成精度 (可选值: 'no', 'fp32', 'fp16', 'bf16')
[--local_rank LOCAL_RANK] # 本地排名