# 3-2 Treinamento de LoRA (Avançado)

## O Princípio de LoRA

#### Para que serve o LoRA?

O LoRA permite o ajuste fino de toda a imagem mantendo os pesos do Checkpoint inalterados. Nesse caso, basta ajustar o LoRA para gerar imagens específicas sem modificar todo o Checkpoint. Para algumas imagens que a IA nunca encontrou antes, o LoRA é usado para ajuste fino. Isso confere à arte com IA um certo grau de “controlabilidade”.

{% content-ref url="3-2-treinamento-de-lora-avancado/treinamento-de-imagens" %}
[treinamento-de-imagens](https://docs.seaart.ai/guide-1/portugues/3-guia-avancado/3-2-treinamento-de-lora-avancado/treinamento-de-imagens)
{% endcontent-ref %}

Atualmente, os modelos treinados são todos “refinamentos” feitos em modelos oficialmente treinados (SD1.5, SDXL). Claro, refinamentos também podem ser feitos em modelos criados por outros.

{% content-ref url="3-2-treinamento-de-lora-avancado/treinamento-de-videos" %}
[treinamento-de-videos](https://docs.seaart.ai/guide-1/portugues/3-guia-avancado/3-2-treinamento-de-lora-avancado/treinamento-de-videos)
{% endcontent-ref %}

[Treinamento de LoRA](https://www.seaart.ai/pt/lora_train): A IA primeiro gera imagens com base nos prompts, depois compara essas imagens com o conjunto de dados do treinamento. Ao guiar a IA para ajustar continuamente os vetores de embedding com base nas diferenças geradas, os resultados vão gradualmente se aproximando do conjunto de dados. Eventualmente, o modelo ajustado pode produzir resultados completamente equivalentes ao conjunto de dados, formando uma associação entre as imagens geradas pela IA e o conjunto de dados, tornando-as cada vez mais semelhantes.

<figure><img src="https://2001975340-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FH71dO7TuUPMHtPY8Ra8I%2Fuploads%2FnPjZMKwnnnDXBxXpLLK9%2F268-Princ%C3%ADpio%20do%20Modelo%20de%20Gera%C3%A7%C3%A3o%20de%20Imagem%20com%20LoRA.png?alt=media&#x26;token=73a37a33-20ff-42cb-8ffc-2bc4f317d58b" alt=""><figcaption></figcaption></figure>

<mark style="color:red;">\*</mark>Comparado ao Checkpoint, o LoRA tem um tamanho de arquivo menor, o que economiza tempo e recursos. Além disso, pode ajustar pesos em cima do Checkpoint, alcançando diferentes efeitos.

####

## Processo de [Treinamento de LoRA](https://www.seaart.ai/pt/models)

> **Cinco etapas: Preparar o conjunto de dados - Pré-processamento de imagens - Definir parâmetros - Monitorar o processo de treinamento do LoRA - Conclusão do treinamento**

<mark style="background-color:yellow;">\*Tomando como exemplo o treinamento de um LoRA facial com o SeaArt.</mark>

#### Preparar o conjunto de dados

<mark style="color:red;">\*</mark>Se quiser saber mais sobre como criar um conjunto de dados, leia o guia abaixo.

{% content-ref url="3-2-treinamento-de-lora-avancado/como-criar-um-conjunto-de-dados-para-treinamento" %}
[como-criar-um-conjunto-de-dados-para-treinamento](https://docs.seaart.ai/guide-1/portugues/3-guia-avancado/3-2-treinamento-de-lora-avancado/como-criar-um-conjunto-de-dados-para-treinamento)
{% endcontent-ref %}

Ao enviar o conjunto de dados, é essencial manter o princípio de “amostras diversificadas”. Isso significa que o conjunto de dados deve incluir imagens de diferentes ângulos, poses, condições de iluminação, etc., e garantir que as imagens sejam de alta resolução. Esta etapa visa principalmente ajudar a IA a entender as imagens.

<figure><img src="https://2001975340-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FH71dO7TuUPMHtPY8Ra8I%2Fuploads%2FlX5XdOwDcBENJneD7OTc%2F269-Processo%20de%20Treinamento%20LoRA%20%E2%80%93%20Preparar%20o%20Conjunto%20de%20Dados.png?alt=media&#x26;token=50069e73-eb50-4b68-aae9-aae22cacb3a8" alt=""><figcaption></figcaption></figure>

#### Pré-processamento de imagens

<mark style="background-color:yellow;">I. Recorte de imagens II. Rotulagem III. Palavras de ativação.</mark>

**I. Recorte de imagens**

Para permitir que a IA reconheça melhor os objetos nas imagens, geralmente é melhor manter dimensões consistentes. Você pode escolher entre **512\*512 (1:1), 512\*768 (2:3)** ou **768\*512 (3:2)** conforme o resultado desejado.

Modo de Recorte: <mark style="background-color:yellow;">Recorte Central (Center Crop) / Recorte por Foco (Focus Crop) / Sem Recorte (No Crop)</mark>

Recorte Central: Recorta a região central da imagem.

Recorte por Foco: Identifica automaticamente o principal objeto da imagem.

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/RLmlpgD5NN8hIaz4QYDL/%E8%81%9A%E7%84%A6%E8%A3%81%E5%89%AA.png" alt="Lora Training Process - Cropping images - Focus Crop"><figcaption><p>Recorte por Foco</p></figcaption></figure>

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/DOFlcuflosDDBiPCQn74/%E4%B8%AD%E5%A4%AE%E8%A3%81%E5%89%AA.png" alt="Lora Training Process - Cropping images - Center Crop"><figcaption><p>Recorte Central</p></figcaption></figure>

<mark style="color:red;">\*</mark>Comparado ao recorte central, <mark style="color:red;">o recorte por foco</mark> tende a preservar melhor o objeto principal do conjunto de dados, sendo geralmente recomendado.

**II. Rotulagem**

Fornece descrições textuais para as imagens do conjunto de dados, permitindo que a IA aprenda a partir do texto.

Algoritmo de Rotulagem: BLIP/Deepbooru

* BLIP: Rotulador em linguagem natural, por exemplo, “uma garota de cabelo preto”.
* Deepbooru: Rótulos em frases, por exemplo, “uma garota, cabelo preto”.
* Limite de Rotulagem: Quanto menor o valor, mais detalhada a descrição. Recomenda-se <mark style="color:red;">0,6</mark>.

<figure><img src="https://2001975340-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FH71dO7TuUPMHtPY8Ra8I%2Fuploads%2FLTbN8CxrpzTsdVMCIksD%2F272-.png?alt=media&#x26;token=0220532c-d968-49c8-baf2-c21d7b7bb2bf" alt=""><figcaption></figcaption></figure>

Processo de Rotulagem: Remova características fixas (como traços físicos...) para permitir que a IA aprenda essas características de forma autônoma. Da mesma forma, você pode adicionar características que deseja ajustar no futuro (roupas, acessórios, ações, fundo...).

<mark style="color:red;">\*</mark>Por exemplo, se quiser que todas as imagens geradas tenham cabelo preto e olhos pretos, pode remover essas duas tags.

<figure><img src="https://2001975340-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FH71dO7TuUPMHtPY8Ra8I%2Fuploads%2FRFmOkL4iRXGF9qeoazRa%2F273-.png?alt=media&#x26;token=dfe922fc-f26d-4ab3-9300-7ddd67073125" alt=""><figcaption></figcaption></figure>

**III. Palavras de ativação**

Palavras que ativam o LoRA, consolidando efetivamente as características do personagem em uma única palavra.

<figure><img src="https://2001975340-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FH71dO7TuUPMHtPY8Ra8I%2Fuploads%2F214H4vdh8yV26f8wKV8H%2F274.png?alt=media&#x26;token=db1c11d6-ddff-4c20-af85-236dae00767d" alt=""><figcaption></figcaption></figure>

#### Configurações de Parâmetros

**Modelo Base:** Recomenda-se escolher um modelo base de alta qualidade e estável, que combine com o estilo do LoRA, facilitando para a IA a correspondência de características e registro de diferenças.

**Modelos Base Recomendados:**

Realista: SD1.5, ChilloutMix, MajicMIX Realistic, Realistic Vision

Anime: AnyLoRA, Anything | 万象熔炉, ReV Animated

**Configuração Avançada**

<mark style="background-color:red;">**Parâmetros de Treinamento:**</mark>

<figure><img src="https://2001975340-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FH71dO7TuUPMHtPY8Ra8I%2Fuploads%2FFUgIepQIdnAiYlQx0qHi%2F274-.png?alt=media&#x26;token=8c406609-e6f0-4400-9969-db51174fe7bb" alt=""><figcaption></figcaption></figure>

**Repetição (Repetições de Imagem Única):** Número de vezes que uma imagem é aprendida. Quanto mais repetições, melhor o aprendizado, mas repetições excessivas podem tornar a imagem rígida. <mark style="color:red;">Sugestão: Anime: 8; Realista: 15.</mark>

**Época (Ciclos):** Um ciclo equivale ao número de imagens do conjunto de dados multiplicado pela Repetição. Representa quantos passos o modelo foi treinado no conjunto de dados. Por exemplo, se há 20 imagens e Repetição é 10, o modelo aprende 20 \* 10 = 200 passos. Se Época for 10, o treinamento terá 2000 passos. <mark style="color:red;">Sugestão: Anime: 20; Realista: 10.</mark>

**Tamanho do Lote (Batch size):** Número de imagens aprendidas simultaneamente. Por exemplo, se definido como 2, a IA aprende 2 imagens por vez, reduzindo a duração total do treinamento. Porém, aprender várias imagens ao mesmo tempo pode diminuir a precisão para cada imagem.

Precisão Mista: Recomenda-se <mark style="color:red;">fp16</mark>.

<mark style="background-color:red;">**Configurações de Amostra:**</mark>

<figure><img src="https://2001975340-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FH71dO7TuUPMHtPY8Ra8I%2Fuploads%2Fm9fFMVQ8EeD6n62AQ8SE%2F275-.png?alt=media&#x26;token=a586de9f-68bb-4294-a1a5-4436e8a812c9" alt=""><figcaption></figcaption></figure>

**Resolução:** Determina o tamanho da imagem de pré-visualização do efeito final do modelo.

* SD1.5: 512\*512

**Seed:** Controla as imagens geradas aleatoriamente. Usando a mesma seed com prompts, provavelmente gerará imagens iguais/similares.

**Sampler \ Prompts \ Negative Prompts:** Principalmente para mostrar o efeito da imagem de pré-visualização do modelo final.

<mark style="background-color:red;">**Configurações de Salvamento:**</mark>

<figure><img src="https://2001975340-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FH71dO7TuUPMHtPY8Ra8I%2Fuploads%2FILXNFMVSxNldJZGNNCa5%2F276-.png?alt=media&#x26;token=4d1e0734-9a80-4292-a6ca-f8c38e39c078" alt=""><figcaption></figcaption></figure>

Determina o número final de LoRAs. Se definido como 2 e Época como 10, então 5 LoRAs serão salvos no final.

Precisão de Salvamento: Recomenda-se <mark style="color:red;">fp16.</mark>

<mark style="background-color:red;">**Taxa de Aprendizado & Otimizador:**</mark>

<figure><img src="https://2001975340-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FH71dO7TuUPMHtPY8Ra8I%2Fuploads%2FGAe1Ajx7zQ8Lp11G1QuE%2F277-.png?alt=media&#x26;token=7d801514-071e-4375-aadb-116865f6df8c" alt=""><figcaption></figcaption></figure>

**Taxa de Aprendizado:** Indica a intensidade do aprendizado da IA. Quanto maior, mais a IA aprende, mas pode gerar imagens diferentes do esperado. Com conjuntos de dados maiores, tente reduzir a taxa de aprendizado. Recomenda-se começar com o valor padrão e ajustar conforme os resultados. Sugestão: começar baixo, recomendado <mark style="color:red;">0,0001</mark>.

**unet lr**: Quando definido, a Taxa de Aprendizado não terá efeito. Recomenda-se <mark style="color:red;">0,0001</mark>.

**text encoder lr:** Determina a sensibilidade às tags. Normalmente, é definido como <mark style="color:red;">1/2 ou 1/10 do unet lr.</mark>

**Lr scheduler:** Controla a redução da taxa de aprendizado. Diferentes schedulers têm pouco impacto no resultado final. Geralmente, usa-se o padrão “cosine”, mas há a versão <mark style="color:red;">“Cosine with Restart”</mark>, que faz múltiplos reinícios e decai para aprender totalmente o conjunto de dados, evitando “soluções ótimas locais”. Se usar “Cosine with Restart”, defina Restart Times para <mark style="color:red;">3-5</mark>.

**Otimizador**: Determina como a IA aprende durante o treinamento, impactando diretamente os resultados. Recomenda-se <mark style="color:red;">AdamW8bit.</mark>

<mark style="color:red;">Lion</mark>: Novo otimizador, normalmente com taxa de aprendizado cerca de 10 vezes menor que AdamW.

<mark style="color:red;">Prodigy:</mark> Se todas as taxas de aprendizado forem 1, o Prodigy ajusta automaticamente para obter os melhores resultados, ideal para <mark style="background-color:yellow;">iniciantes.</mark>

<mark style="background-color:red;">**Rede:**</mark>

<figure><img src="https://2001975340-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FH71dO7TuUPMHtPY8Ra8I%2Fuploads%2Fe1DKtw1DgiUPQsI3J9fQ%2F278-.png?alt=media&#x26;token=17e32f3f-40ec-4b41-8d58-6bbaf5101561" alt=""><figcaption></figcaption></figure>

Usada para construir uma base LoRA adequada para os dados de entrada da IA.

**Network Rank Dim:** Afeta diretamente o tamanho do LoRA. Quanto maior o Rank, mais dados precisam ser ajustados. 128=140MB+; 64=70MB+; 32=40MB+.

**Recomendado:**

<mark style="color:red;">Realista: 64/128</mark>

<mark style="color:red;">Anime: 8/16/32</mark>

Valores muito altos fazem a IA aprender detalhes irrelevantes, semelhante ao “overfitting”.

**Network Alpha:** Pode ser entendido como o grau de influência do LoRA nos pesos do modelo original. Quanto mais próximo do Rank, menor a influência; quanto mais próximo de 0, maior a influência. Alpha geralmente não excede o Rank. Atualmente, Alpha é definido como <mark style="color:red;">metade do Rank</mark>. Se definido como 1, maximiza a influência nos pesos.

<mark style="background-color:red;">**Configurações de Rotulagem:**</mark>

<figure><img src="https://2001975340-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FH71dO7TuUPMHtPY8Ra8I%2Fuploads%2FuSqnTb6gSg69via6pV4b%2F279-.png?alt=media&#x26;token=acdc846c-1972-46ac-a8aa-59e2a8d3ab11" alt=""><figcaption></figcaption></figure>

Em geral, quanto mais próximo do início, maior o peso da tag. Por isso, recomenda-se ativar <mark style="color:red;">Shuffle Caption</mark>.

## Assuntos do Treinamento de LoRA

### **Overfitting (**&#x53;obreajust&#x65;**) / Underfitting (**&#x53;ubajust&#x65;**)**

**Sobreajuste:** Quando há um conjunto de dados limitado ou a IA corresponde ao conjunto de dados com precisão excessiva, isso faz com que o Lora gere imagens que se assemelham muito ao conjunto de dados, resultando em uma capacidade de generalização ruim do modelo.

<figure><img src="https://2001975340-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FH71dO7TuUPMHtPY8Ra8I%2Fuploads%2Ff8dRBzINAKvSdvxJt7nB%2F280-.png?alt=media&#x26;token=b12f0e03-a3ea-4beb-bf3c-93f2dccc51c7" alt=""><figcaption></figcaption></figure>

A imagem no canto superior direito se assemelha muito ao conjunto de dados à esquerda, tanto na aparência quanto na postura.

**Motivos de Sobreajuste:**

1. Conjunto de dados insuficiente.
2. Parâmetros incorretos (tags, taxa de aprendizado, passos, otimizador, etc.).

**Prevenção de Sobreajuste:**

1. Reduzir a taxa de aprendizado adequadamente.
2. Diminuir a Época.
3. Reduzir Rank e aumentar Alpha.
4. Diminuir Repetição.
5. Usar treinamento de regularização.
6. Aumentar o conjunto de dados.

**Subajuste:** O modelo não aprende adequadamente as características do conjunto de dados, gerando imagens que não correspondem bem ao conjunto.

<figure><img src="https://2001975340-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FH71dO7TuUPMHtPY8Ra8I%2Fuploads%2F2uSuyeLM6KJkr9MC9YHD%2F281-.png?alt=media&#x26;token=ad66742b-2d45-4a04-b62f-1fb1b438e060" alt=""><figcaption></figcaption></figure>

Você pode ver que as imagens geradas pela Lora não conseguem preservar adequadamente as características do conjunto de dados - elas são diferentes.

**Motivos de Subajuste:**

1. Baixa complexidade do modelo.
2. Poucas características.

**Prevenção de Subajuste:**

1. Aumentar a taxa de aprendizado.
2. Aumentar a Época.
3. Aumentar Rank, reduzir Alpha.
4. Aumentar Repetição.
5. Reduzir restrições de regularização.
6. Adicionar mais características ao conjunto de dados (alta qualidade).

### Conjunto de Dados de Regularização

{% embed url="<https://youtu.be/WOg6tHewDMQ?si=U4onFkvGthpQjQfJ>" %}

Uma forma de evitar sobreajuste é adicionar imagens extras para melhorar a generalização do modelo. O conjunto de regularização não deve ser muito grande, senão a IA aprende demais dele, perdendo o objetivo original. Recomenda-se <mark style="color:red;">10-20</mark> imagens.

Por exemplo, em um conjunto de retratos com maioria de cabelos longos, adicione imagens de cabelos curtos ao conjunto de regularização. Se o conjunto for todo de um mesmo estilo artístico, adicione imagens de estilos diferentes para diversificar. O conjunto de regularização não precisa de tags.

<mark style="color:red;">\*</mark>Em termos simples, treinar LoRA assim é como combinar o conjunto de dados principal com o de regularização.

### Perda

A diferença entre o que a IA aprende e a realidade, guiada pela perda, pode otimizar a direção do aprendizado. Quando a perda é baixa, a diferença é pequena e a IA aprende com mais precisão. Desde que a perda diminua gradualmente, geralmente não há grandes problemas.

O valor de perda para imagens realistas geralmente varia de <mark style="color:red;">0,1 a 0,12</mark>, enquanto para anime pode ser menor.

Use o valor de perda para avaliar problemas no treinamento do modelo.

<figure><img src="https://2001975340-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FH71dO7TuUPMHtPY8Ra8I%2Fuploads%2F9QxnwXuW1pd4psR2uEXu%2F283-.png?alt=media&#x26;token=1742da1c-e3c5-4036-abb2-e3936e5b1f5a" alt=""><figcaption></figcaption></figure>

### Resumo

Atualmente, os “modelos ajustados” podem ser divididos em três tipos: o Checkpoint do Dreambooth, o LoRA e os Embeddings do Textual Inversion. Considerando tamanho, tempo de treinamento e requisitos de dados, o LoRA oferece o melhor “custo-benefício”. Seja para ajustar estilo, personagens ou poses, o LoRA é eficaz.

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/gJXaJz3iiLH4uul27uFQ/7068ec32-7931-446c-a9b9-9e4d77e42250.png" alt="Checkpoint ReV Animated &#x26; Invisible Concept Lora"><figcaption></figcaption></figure>

## Configuração SDXL LoRA

### Parâmetros de Treinamento Recomendados:

### Épocas e Repetições

#### Épocas:

Número de ciclos de treinamento das imagens do conjunto de dados. <mark style="background-color:yellow;">Sugerimos 10 para iniciantes</mark>. O valor pode ser aumentado se o conjunto for pequeno ou reduzido se for grande.

#### Repetições:

Número de vezes que uma imagem é aprendida. Valores maiores levam a melhores efeitos e composições mais complexas, mas aumentam o risco de overfitting. <mark style="background-color:yellow;">Sugerimos 10</mark> para bons resultados e menor risco de overfitting.

<mark style="background-color:yellow;">Nota: Você pode aumentar épocas e repetições se os resultados não estiverem satisfatórios.</mark>

### Taxa de Aprendizado e Otimizador:

#### learning\_rate (Taxa de Aprendizado Geral):

Grau de mudança em cada repetição. Valores altos aprendem mais rápido, mas podem causar falhas ou não convergir. Valores baixos aprendem mais devagar, mas podem atingir o estado ideal. Este valor não tem efeito após definir taxas separadas para U-Net e Codificador de Texto.

#### unet\_lr (Taxa de Aprendizado U-Net):

O U-Net orienta as imagens com ruído geradas por sementes aleatórias para determinar a direção da remoção de ruído, encontrar as áreas que precisam de alteração e fornecer os dados necessários. Valores mais altos significam um ajuste mais rápido, mas com risco de perder detalhes, enquanto valores mais baixos causam subajuste e falta de semelhança entre as imagens geradas e os materiais. O valor é definido de acordo com o tipo de modelo e o conjunto de dados. Sugerimos 0,0002 para o treinamento de personagens.

#### text\_encoder\_lr (Taxa de Aprendizado do Codificador de Texto):

Ele converte as tags para a forma de embedding para que o U-Net possa entender. Como o codificador de texto do SDXL já está bem treinado, geralmente não há necessidade de treinamento adicional, e os valores padrão são suficientes, a menos que haja necessidades especiais.

#### Otimizer (Otimização):

Um algoritmo em aprendizado profundo que ajusta os parâmetros do modelo para minimizar a função de perda. Durante o treinamento da rede neural, o otimizador atualiza os pesos do modelo com base nas informações do gradiente da função de perda, para que o modelo possa se ajustar melhor aos dados de treinamento. O otimizador padrão, AdamW, pode ser usado para o treinamento do SDXL, e outros otimizadores, como o Prodigy, que é fácil de usar e possui taxas de aprendizado adaptativas, também podem ser escolhidos conforme necessidades específicas.

#### lr\_scheduler (Configurações do Agendador de Taxa de Aprendizado):

Refere-se a uma estratégia ou algoritmo para ajustar dinamicamente a taxa de aprendizado durante o treinamento. Escolher "Constant" é suficiente na maioria dos casos.

### Configurações de Rede:

#### network\_dim (Dimensão da Rede):

Está intimamente relacionada ao tamanho do LoRA treinado.

Para SDXL, um LoRA de 32dim tem 200M, um de 16dim tem 100M e um de 8dim tem 50M. Para personagens, selecionar 8dim é suficiente.

#### network\_alpha:

Normalmente definido como metade ou um quarto do valor de dim. Se o dim for 8, o alpha pode ser definido como 4.

### Outras configurações:

#### Resolution:

A resolução de treinamento pode não ser quadrada, mas deve ser múltipla de 64. Para SDXL, sugerimos 1024x1024 ou 1024x768.

#### enable\_bucket (Bucket):

Se a resolução das imagens não for unificada, ative este parâmetro. Ele irá classificar automaticamente a resolução do conjunto de treinamento e criar um bucket para armazenar imagens de cada resolução ou resoluções semelhantes antes do início do treinamento. Isso economiza tempo na unificação da resolução na fase inicial. <mark style="background-color:yellow;">Se a resolução das imagens já estiver unificada, não é necessário ativar.</mark>

#### **noise\_offset and multires\_noise\_iterations:**

Ambos os ajustes de ruído melhoram situações em que a imagem gerada fica excessivamente clara ou escura. Se não houver imagens excessivamente claras ou escuras no conjunto de treinamento, podem ser desativados. Se ativados, <mark style="background-color:yellow;">sugerimos usar multires\_noise\_iterations</mark> com valor entre 6 e 10.

#### multires\_noise\_discount:

Precisa ser ativado junto com o multires\_noise\_iterations mencionado acima, e um valor entre 0,3 e 0,8 é recomendado.

#### clip\_skip:

Especifica qual camada de saída do codificador de texto usar, contando a partir da última. Normalmente, o valor padrão é suficiente.
