Stable diffusion 3(SD3) Lora训练

使用dreambooth训练自己的stable diffusion 3 Lora微调模型

train_dreambooth_lora_sd3.py参数说明

来自:https://github.com/huggingface/diffusers/blob/main/examples/dreambooth/train_dreambooth_lora_sd3.py

train_dreambooth_lora_sd3.py [-h] 
            --pretrained_model_name_or_path PRETRAINED_MODEL_NAME_OR_PATH  # 预训练模型的名称或路径
            [--revision REVISION]  # 模型的版本号
            [--variant VARIANT]  # 模型的变体
            [--dataset_name DATASET_NAME]  # 数据集的名称
            [--dataset_config_name DATASET_CONFIG_NAME]  # 数据集配置的名称
            [--instance_data_dir INSTANCE_DATA_DIR]  # 实例数据的目录
            [--cache_dir CACHE_DIR]  # 缓存目录
            [--image_column IMAGE_COLUMN]  # 图像列
            [--caption_column CAPTION_COLUMN]  # 标题列
            [--repeats REPEATS]  # 重复次数
            [--class_data_dir CLASS_DATA_DIR]  # 类别数据的目录
			
            --instance_prompt INSTANCE_PROMPT  # 实例提示
            [--class_prompt CLASS_PROMPT]  # 类别提示
            [--validation_prompt VALIDATION_PROMPT]  # 验证提示
            [--num_validation_images NUM_VALIDATION_IMAGES]  # 验证图像的数量
            [--validation_epochs VALIDATION_EPOCHS]  # 验证的轮数
            [--rank RANK]  # 排名
            [--with_prior_preservation]  # 是否保留先验
            [--prior_loss_weight PRIOR_LOSS_WEIGHT]  # 先验损失权重
            [--num_class_images NUM_CLASS_IMAGES]  # 类别图像的数量
            [--output_dir OUTPUT_DIR]  # 输出目录
            [--seed SEED]  # 随机种子
            [--resolution RESOLUTION]  # 分辨率
            [--center_crop]  # 是否进行中心裁剪
            [--random_flip]  # 是否进行随机翻转
            [--train_batch_size TRAIN_BATCH_SIZE]  # 训练批次大小
            [--sample_batch_size SAMPLE_BATCH_SIZE]  # 样本批次大小
            [--num_train_epochs NUM_TRAIN_EPOCHS]  # 训练的轮数
            [--max_train_steps MAX_TRAIN_STEPS]  # 最大训练步骤数
            [--checkpointing_steps CHECKPOINTING_STEPS]  # 检查点步骤数
            [--checkpoints_total_limit CHECKPOINTS_TOTAL_LIMIT]  # 检查点总数限制
            [--resume_from_checkpoint RESUME_FROM_CHECKPOINT]  # 从检查点恢复
            [--gradient_accumulation_steps GRADIENT_ACCUMULATION_STEPS]  # 梯度累积步骤数
            [--gradient_checkpointing]  # 是否进行梯度检查点
			
            [--learning_rate LEARNING_RATE]  # 学习率
            [--text_encoder_lr TEXT_ENCODER_LR]  # 文本编码器的学习率
            [--scale_lr]  # 是否缩放学习率
            [--lr_scheduler LR_SCHEDULER]  # 学习率调度器 (可选值: 'linear', 'cosine', 'cosine_with_restarts', 'polynomial', 'constant', 'constant_with_warmup')
            [--lr_warmup_steps LR_WARMUP_STEPS]  # 学习率预热步骤数
            [--lr_num_cycles LR_NUM_CYCLES]  # 学习率循环次数
            [--lr_power LR_POWER]  # 学习率的幂
            [--dataloader_num_workers DATALOADER_NUM_WORKERS]  # 数据加载器的工作线程数
            [--weighting_scheme {sigma_sqrt,logit_normal,mode}]  # 加权方案
            [--logit_mean LOGIT_MEAN]  # logit的均值
            [--logit_std LOGIT_STD]  # logit的标准差
            [--mode_scale MODE_SCALE]  # 模式缩放
            [--optimizer OPTIMIZER]  # 优化器 (可选值: 'adamw', 'adam', 'sgd')
            [--use_8bit_adam]  # 是否使用8位Adam优化器
            [--adam_beta1 ADAM_BETA1]  # Adam优化器的beta1参数
            [--adam_beta2 ADAM_BETA2]  # Adam优化器的beta2参数
            [--prodigy_beta3 PRODIGY_BETA3]  # Prodigy优化器的beta3参数
            [--prodigy_decouple PRODIGY_DECOUPLE]  # 是否解耦Prodigy优化器
            [--adam_weight_decay ADAM_WEIGHT_DECAY]  # Adam优化器的权重衰减
            [--adam_weight_decay_text_encoder ADAM_WEIGHT_DECAY_TEXT_ENCODER]  # 文本编码器的Adam优化器权重衰减
            [--adam_epsilon ADAM_EPSILON]  # Adam优化器的epsilon参数
            [--prodigy_use_bias_correction PRODIGY_USE_BIAS_CORRECTION]  # 是否使用Prodigy优化器的偏差校正
            [--prodigy_safeguard_warmup PRODIGY_SAFEGUARD_WARMUP]  # Prodigy优化器的保护预热
            [--max_grad_norm MAX_GRAD_NORM]  # 最大梯度范数
            [--push_to_hub]  # 是否推送到Hub
            [--hub_token HUB_TOKEN]  # Hub的令牌
            [--hub_model_id HUB_MODEL_ID]  # Hub模型ID
            [--logging_dir LOGGING_DIR]  # 日志目录
            [--allow_tf32]  # 是否允许使用TF32
            [--report_to REPORT_TO]  # 报告到 (可选值: 'tensorboard', 'wandb', 'comet_ml')
            [--mixed_precision {no,fp16,bf16}]  # 混合精度 (可选值: 'no', 'fp16', 'bf16')
            [--prior_generation_precision {no,fp32,fp16,bf16}]  # 先验生成精度 (可选值: 'no', 'fp32', 'fp16', 'bf16')
            [--local_rank LOCAL_RANK]  # 本地排名
			
星期二, 18 6 月, 2024 未分类

Leave a Reply

1LMooBmUE153Wnd3zDryWvDyXxQudbFxDr