# Nós Centrais

## Imagem

1. **Pad Image for Outpainting (Preencher Imagem para Outpainting)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/eUZ8NAbi6HbylxepTlvI/8ecd50e0-b087-472f-924a-61e7696e8676.png" alt="Core Nodes - Pad image for outpainting" width="563"><figcaption></figcaption></figure>

> **Preencher e estender a imagem, similar à expansão. Primeiro aumente o tamanho da imagem, depois desenhe a área expandida como uma máscara. É recomendado usar o VAE Encode (for Inpainting) para garantir que a imagem original permaneça inalterada.**

Parâmetros:

left、top、right、bottom: Quantidades de Preenchimento para Cima, Baixo, Esquerda e Direita

feathering: Grau de Suavização da Borda

2. **Save Image (Salvar Imagem)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/OP8hoJ1NYOaA1ORTMx3S/save_image.png" alt="Core Nodes - save image"><figcaption></figcaption></figure>

3. **Load Image (Carregar Imagem)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/b7JEtErlg8ov8thidAjc/load_image.png" alt="Core Nodes - load image"><figcaption></figcaption></figure>

4. **ImageBlur (Desfoque de Imagem)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/qlMBbmxXOaTqHAUgZPzv/288db16e-470e-4ab8-9aea-550c28083ee0.png" alt="Core Nodes - ImageBlur" width="563"><figcaption></figcaption></figure>

> **Adicionar um Efeito de Desfoque à Imagem**

Parâmetros:

sigma: Quanto menor o valor, mais concentrado o desfoque fica ao redor do pixel central.

5. **Image Blend (Mesclar Imagem)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/EBUFruWbh4ONJfG24Y9v/%E5%9B%BE%E5%83%8F%E6%B7%B7%E5%90%882.png" alt="Core Nodes - Image Blend" width="544"><figcaption></figcaption></figure>

> **Você pode misturar duas imagens usando transparência.**

6. **Image Quantize (Quantizar Imagem)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/r1EV2RR29VOnheYvm10F/01570b37-c653-41db-b409-793e36a9a0d1.png" alt="Core Nodes - Image Quantize" width="563"><figcaption></figcaption></figure>

> **Reduzir o número de cores na imagem**

Parâmetros:

**colors:** Quantizar o número de cores na imagem. Quando definido como 1, a imagem terá apenas uma cor.

**dither:** Se usar pontilhamento para fazer a imagem quantizada parecer mais suave

7. **Image Sharpen (Nitidez de Imagem)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/Qv52RnPKBNPv3d1KoZDx/%E5%9B%BE%E5%83%8F%E9%94%90%E5%8C%96.png" alt="Core Nodes - Image Sharpen" width="563"><figcaption></figcaption></figure>

Parâmetros:

sigma: Quanto menor o valor, mais concentrada a nitidez fica ao redor do pixel central.

8. **Invert Image (Inverter Imagem)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/9juvssZl3bwShnobfyAk/%E8%89%B2%E5%BD%A9%E5%8F%8D%E8%BD%AC.png" alt="Core Nodes Invert Image" width="553"><figcaption></figcaption></figure>

> **Inverter as cores da imagem**

9. **Upscaling (Aumentar Resolução)**

9.1 **Upscale Image (Using Model) - Aumentar Resolução da Imagem (Usando Modelo)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/5LdwDZXxQbcBwK2O9YRU/%E7%94%A8%E6%A8%A1%E5%9E%8B%E6%94%BE%E5%A4%A7.png" alt="Core Nodes - Upscale image using a model" width="563"><figcaption></figcaption></figure>

9.2 **Upscale Image (Aumentar Resolução da Imagem)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/ISyjaugHIgCrnsh0SCst/%E5%9B%BE%E9%AB%98%E6%B8%85.png" alt="Core Nodes - Upscale image" width="563"><figcaption></figcaption></figure>

> **O nó Upscale Image pode ser usado para redimensionar imagens de pixel.**

Parâmetros:

upscale\_method: Selecionar o método de preenchimento de pixel.

width: A largura ajustada da imagem

height: A altura ajustada da imagem

crop: Se cortar a imagem

10. **Preview Image (Visualizar Imagem)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/pRxBdeROpTxdejs32bI9/%E9%A2%84%E8%A7%88%E5%9B%BE%E7%89%87.png" alt="Core Nodes - Preview image"><figcaption></figcaption></figure>

## Loaders (Carregadores)

1. **Load CLIP Vision (Carregar o modelo de visão do CLIP/Contrastive Language–Image Pre-training)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/ulzDkhUAg38cYgiyRLph/7e01adf6-1c57-4695-968b-268e3078463e.png" alt="Loaders - Load CLIP Vision" width="563"><figcaption></figcaption></figure>

> **Decodificar a imagem para formar descrições (prompts), e depois convertê-las em entradas condicionais para o sampler. Baseado nas descrições decodificadas (prompts), gerar novas imagens similares. Múltiplos nós podem ser usados juntos. Adequado para transformar conceitos, coisas abstratas, usado em combinação com Clip Vision Encode.**

2. **Load CLIP (Carregar o modelo CLIP)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/vdZq4y3XPq2zx4ueIRmq/load_clip1.png" alt="Loaders - Load CLIP"><figcaption></figcaption></figure>

> **O nó Load CLIP pode ser usado para carregar um modelo CLIP específico, modelos CLIP são usados para codificar prompts de texto que orientam o processo de difusão.**

<mark style="color:red;">\*</mark>Modelos de difusão condicional são treinados usando um modelo CLIP específico, usar um modelo diferente daquele com o qual foi treinado é improvável que resulte em boas imagens. O nó Load Checkpoint carrega automaticamente o modelo CLIP correto.

3. **unCLIP Checkpoint Loader (Carregar Ponto de Verificação unCLIP)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/Ry2s6pLvnDllibdNdhMY/unclip.png" alt="Loaders - unCLIP Checkpoint Loader"><figcaption></figcaption></figure>

> **O nó unCLIP Checkpoint Loader pode ser usado para carregar um modelo de difusão especificamente feito para trabalhar com unCLIP. Modelos de difusão unCLIP são usados para remover ruído de latentes condicionados não apenas no prompt de texto fornecido, mas também em imagens fornecidas. Este nó também fornecerá os modelos VAE e CLIP e CLIP vision apropriados.**

<mark style="color:red;">\*</mark>mesmo que este nó possa ser usado para carregar todos os modelos de difusão, nem todos os modelos de difusão são compatíveis com unCLIP.

4. **Load ControInet Model (Carregar Modelo ControlNet)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/cQemQFFEoBUjD0CQlyE3/%E6%8E%A7%E5%88%B6%E7%BD%91%E6%A8%A1%E5%9E%8B.png" alt="Loaders - Load ControInet Model" width="563"><figcaption></figcaption></figure>

> **O nó Load ControlNet Model pode ser usado para carregar um modelo ControlNet, Usado em conjunto com Apply ControlNet.**

5. **Load LoRA (Carregar LoRA)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/61o8BwZ593wVusrrKYyg/load_lora.png" alt="Loaders - Load LoRA"><figcaption></figcaption></figure>

6. **Load VAE (Carregar VAE/Autoencoder Variacional)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/1cqg7uhmLh1s0OVGc5G7/ae.png" alt="Loaders - Load VAE"><figcaption></figcaption></figure>

7. **Load Upscale Model (Carregar Modelo de Aumento de Resolução)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/7iNxtfVDC0g5Ygt0ykpt/%E5%8A%A0%E8%BD%BD%E6%94%BE%E5%A4%A7%E6%A8%A1%E5%9E%8B.png" alt="Loaders - Load Upscale Model" width="555"><figcaption></figcaption></figure>

8. **Load Checkpoint (Carregar Ponto de Verificação)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/nVrT5co95wGyT5KrB2SC/%E5%8A%A0%E8%BD%BD%E5%A4%A7%E6%A8%A1%E5%9E%8B.png" alt="Loaders - Load Checkpoint"><figcaption></figcaption></figure>

9. **Load Style Model (Carregar Modelo de Estilo)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/WmWNzdEBbBt0W0KP7rJ9/%E5%8A%A0%E8%BD%BD%E9%A3%8E%E6%A0%BC%E6%A8%A1%E5%9E%8B.png" alt="Loaders - Load Style Model"><figcaption></figcaption></figure>

> **O nó Load Style Model pode ser usado para carregar um modelo de Estilo. Modelos de estilo podem ser usados para fornecer a um modelo de difusão uma dica visual sobre que tipo de estilo o latente sem ruído deveria ter.**

<mark style="color:red;">\*</mark>Apenas modelos de estilo T2IAdaptor são atualmente suportados

10. **Hypernetwork Loader (Carregar Hiperrede)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/4yoJlO7quOn3USJpvI8p/%E7%BD%91%E7%BB%9C%E5%8A%A0%E8%BD%BD%E8%8A%82%E7%82%B9.png" alt="Loaders - Hypernetwork Loader"><figcaption></figcaption></figure>

> **O nó Hypernetwork Loader pode ser usado para carregar uma hiperrede. Similar aos LoRAs, eles são usados para modificar o modelo de difusão, para alterar a maneira como os latentes são limpos de ruído. Casos de uso típicos incluem adicionar ao modelo a capacidade de gerar em certos estilos, ou gerar melhor certos sujeitos ou ações. Pode-se até mesmo encadear múltiplas hiperredes para modificar ainda mais o modelo.**

## **Conditioning (**&#x43;ondicionament&#x6F;**)**

1. **Apply ControlNet (Aplicar ControlNet)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/TB4QONOrTvREoCETLLCL/canny.png" alt="Conditioning - Apply ControlNet" width="563"><figcaption></figcaption></figure>

> **Carregar modelo ControlNet, que pode conectar múltiplos nós ControlNet.**

Parâmetros:

strength: Quanto maior o valor, mais forte a restrição na imagem.

<mark style="background-color:red;">\*A imagem ControlNet deve ser a imagem pré-processada correspondente, por exemplo, a imagem pré-processada Canny corresponde ao gráfico pré-processado Canny. Portanto, é necessário adicionar nós correspondentes entre a imagem original e o ControlNet para pré-processá-la no gráfico pré-processado</mark>

2. **CLIP Text Encode (Prompt) - Codificar Texto CLIP (Prompt)**

<figure><img src="https://2001975340-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FH71dO7TuUPMHtPY8Ra8I%2Fuploads%2FXAxU9rpuwzdpL5TXK4Zf%2F204-Conditioning%20-%20Input%20text%20prompts.png?alt=media&#x26;token=0e62f71c-dd5e-4112-98fe-fa5f9fd4f513" alt=""><figcaption></figcaption></figure>

> **Inserir prompts de texto, incluindo prompts positivos e negativos.**

3. **CLIP Vision Encode - Codificar Visão CLIP**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/JTlCw3Cvh4ePCADt9skE/7e01adf6-1c57-4695-968b-268e3078463e.png" alt="Conditioning - Steps to CLIP Vision Encode" width="563"><figcaption></figcaption></figure>

> **Decodifique a imagem para gerar descrições (prompts) e, em seguida, converta-as em entradas condicionais para o sampler. Com base nas descrições (prompts) decodificadas, gere novas imagens semelhantes. Vários nós podem ser usados em conjunto. Adequado para transformar conceitos, coisas abstratas, sendo utilizado em conjunto com o Load Clip Vision.**

4. **CLIP Set Last Layer (Definir Última Camada do CLIP)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/yMbhya5mRvp2VLQ6asdF/%E8%B7%B3%E8%BF%87%E5%B1%82%E7%BA%A7.png" alt="Conditioning - CLIP Set Last Layer" width="468"><figcaption></figcaption></figure>

> **Clip Skip, geralmente é definido como -2**

5. **GLIGEN Textbox Apply (Aplicar Caixa de Texto GLIGEN)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/pZMWgTtcJ14w9PnOxCwa/%E6%96%87%E6%9C%AC%E6%A1%86%E5%BA%94%E7%94%A8%E8%8A%82%E7%82%B9.png" alt="Conditioning - GLIGEN Textbox Apply"><figcaption></figcaption></figure>

Guia os prompts para gerar na parte especificada da imagem.

<mark style="background-color:red;">\* A origem do sistema de coordenadas no ComfyUI está localizada no canto superior esquerdo.</mark>

6. **unCLIP Conditioning (Condicionamento unCLIP)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/MqF2GrO6t0wG6wb4Xx53/load_clip%201.png" alt="Conditioning - unCLIP Conditioning"><figcaption></figcaption></figure>

> **As imagens codificadas pelo modelo de visão CLIP fornecem orientação visual adicional para o modelo unCLIP. Este nó pode ser encadeado para fornecer várias imagens como orientação.**

7. **Conditioning Average (Média de Condicionamento)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/iGSMRliOLyqWKSS9PYNo/%E5%B9%B3%E5%9D%87.png" alt="Conditioning - Conditioning Average"><figcaption></figcaption></figure>

> **Mistura duas informações com base em suas intensidades. Quando conditioning\_to\_strength é definido como 1, a difusão será influenciada apenas por conditioning\_to. Quando conditioning\_to\_strength é 0, a difusão da imagem será influenciada apenas por conditioning\_from.**

8. **Apply Style Model (Aplicar Modelo de Estilo)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/2VocXZTOvUGJLwaOZ462/%E5%BA%94%E7%94%A8%E6%A0%B7%E5%BC%8F%E6%A8%A1%E5%9E%8B%E8%8A%82%E7%82%B9.png" alt="Conditioning - Apply Style Model"><figcaption></figcaption></figure>

> **Pode ser usado para fornecer orientação visual adicional ao modelo de difusão, especialmente em relação ao estilo das imagens geradas.**

9. **Conditioning (Combine) - Condicionamento (Combinar)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/nf2Yw0noziIpkcvI8CeR/%E7%BB%93%E5%90%88.png" alt="Conditioning - Combine"><figcaption></figcaption></figure>

> **Mistura duas informações.**

10. **Conditioning (Set Area) - Condicionamento (Definir Área)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/423G4KQIpUKU9wEJaTTo/%E5%88%86%E5%8C%BA%E5%9F%9F.png" alt="Conditioning - Set Area"><figcaption></figcaption></figure>

> Conditioning (Set Area) pode ser usado para limitar a região afetada a uma área específica da imagem. Usado em conjunto com o Conditioning (Combine), permite melhor controle sobre a composição da imagem final.

Parâmetros:

width: A largura da região de controle

height: A altura da região de controle

x: A coordenada x da origem da região de controle

y: A coordenada y da origem da região de controle

strength: A intensidade da informação condicional

<mark style="background-color:red;">\* A origem do sistema de coordenadas no ComfyUI está localizada no canto superior esquerdo.</mark>

> **Como mostrado na figura: defina o lado esquerdo como "gato" e o lado direito como "cachorro".**

11. **Conditioning (Set Mask) - Condicionamento (Definir Máscara)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/Ugb61rXSnHfioklmsu0Z/%E8%AE%BE%E7%BD%AE%E9%81%AE%E7%BD%A9%E8%8A%82%E7%82%B9.png" alt="Conditioning - Set Mask"><figcaption></figcaption></figure>

> **Conditioning (Set Mask) pode ser usado para limitar um ajuste dentro de uma máscara especificada. Usado em conjunto com o nó Conditioning (Combine), permite melhor controle sobre a composição da imagem final.**

## Latent (Latente)

1. **VAE Encode (for Inpainting) - Codificar VAE (para Restauração de Imagem)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/HDwSaDY7LrY93I5lLkHD/vae_inpainting.png" alt="Latent - VAE Encde for Inpainting" width="563"><figcaption></figcaption></figure>

> **Aplicável para repintura parcial, clique com o botão direito para realizar repintura parcial através do Open in MaskEditor.**

2. **Set Latent Noise Mask (Definir Máscara de Ruído Latente)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/dtHGKIJS1Qani0IU3fPX/%E6%BD%9C%E7%A9%BA%E9%97%B4%E9%87%8D%E7%BB%98.png" alt="Latent - Set Latent Noise Mask" width="563"><figcaption></figcaption></figure>

> **O segundo método para repintura parcial envolve primeiro codificar a imagem através de um codificador VAE para transformá-la em conteúdo reconhecível no espaço latente. Em seguida, regenere a parte mascarada no espaço latente.**

> **Comparado ao método VAE Encode (for Inpainting), esta abordagem pode entender melhor o conteúdo que precisa ser regenerado, resultando em menor probabilidade de gerar imagens incorretas. Ela fará referência à imagem a ser redesenhada.**

3. **Rotate Latent (Rotacionar Latente)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/jRFOsfjzj7XizfHcd24S/%E6%97%8B%E8%BD%AC.png" alt="Latent - Rotate Latent" width="563"><figcaption></figcaption></figure>

> **Gira a imagem no sentido horário.**

4. **Flip Latent (Espelhar Latente)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/RyPKPiKzflKbV0bNxCeK/flip_latent.png" alt="Latent - Flip Latent"><figcaption></figcaption></figure>

> **Inverte a imagem horizontal ou verticalmente.**

5. **Crop Latent (Cortar Latente)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/DhrE6QOdgTctILsYjRU6/%E8%A3%81%E5%89%AA%E5%9B%BE%E7%89%87.png" alt="Latent - Crop Latent"><figcaption></figcaption></figure>

> **Usado para recortar a imagem em um novo formato.**

6. **VAE Encode (Codificar VAE)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/cbtGA9GY4hv6Zplf9mJA/%E7%BC%96%E7%A0%81.png" alt="Latent - VAE Encode"><figcaption></figcaption></figure>

7. **VAE Decode (Decodificar VAE)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/JpfalP6SfVnoLTnhWMVC/%E8%A7%A3%E7%A0%81.png" alt="Latent - VAE Decode"><figcaption></figcaption></figure>

8. **Latent From Batch (Latente do Lote)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/Yf6pOgQqpMPZda4lVLef/%E6%89%B9%E6%AC%A1%E4%B8%AD%E6%8F%90%E5%8F%96.png" alt="Latent - Latent From Batch"><figcaption></figcaption></figure>

> **Extrai imagens latentes de lotes. O nó Latent From Batch pode ser usado para selecionar uma imagem latente ou segmento de imagem de um lote. Isso é muito útil em fluxos de trabalho onde é necessário isolar imagens latentes específicas.**

Parâmetros:

batch\_index: O índice da primeira imagem latente a ser selecionada.

length: O número de imagens latentes a serem recuperadas.

9. **Repeat Latent Batch (Repetir Lote Latente)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/djStQ9z0SWwJeZMFMgQF/%E9%87%8D%E5%A4%8D%E5%88%86%E6%89%B9%E5%9B%BE%E5%83%8F.png" alt="Latent - Repeat Latent Batch"><figcaption></figcaption></figure>

> **Repete um lote de imagens, útil para criar múltiplas variações de uma imagem em um fluxo de trabalho IMG2IMG.**

Parâmetros:

amount: O número de repetições.

10. **Rebatch Latents (Reagrupar Latentes)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/XMN6RVr8EhU1j6zE7hJ5/%E9%87%8D%E6%96%B0%E6%89%B9%E6%AC%A1.png" alt="Latent - Rebatch Latents"><figcaption></figcaption></figure>

> **Pode ser usado para dividir ou mesclar lotes de imagens em espaço latente.**

11. **Upscale Latent (Aumentar Resolução do Latente)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/EFmAfPd7Y9x932Tp2kvp/%E6%BD%9C%E7%A9%BA%E9%97%B4%E6%94%BE%E5%A4%A7.png" alt="Latent - Upscale Latent" width="563"><figcaption></figcaption></figure>

> **Ajusta a resolução das imagens em espaço latente, com preenchimento de pixels.**

Parâmetros:

upscale\_method: O método de preenchimento de pixels.

width: A largura da imagem latente ajustada.

height: A altura da imagem latente ajustada.

crop: Indica se a imagem será recortada.

<mark style="background-color:red;">\*O aumento de escala da imagem no espaço latente pode sofrer degradação ao ser decodificado pelo VAE. O KSampler pode ser usado para amostragem secundária para reparar a imagem.</mark>

12. **Latent Composite (Composição Latente)**

> **Sobrepõe uma imagem sobre outra.**

Parâmetros:

x: A coordenada x da posição de sobreposição da camada superior.

y: A coordenada y da posição de sobreposição da camada superior.

feather: Indica o grau de suavização nas bordas.

<mark style="background-color:red;">\*A imagem precisa ser codificada (VAE Encode) no espaço latente.</mark>

13. **Latent Composite Masked (Composição Latente com Máscara)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/DuFVhRdyi4zEcNvahvXZ/bef3376c-849a-4682-9e21-41bdeff38594.png" alt="Latent - Latent Composite Masked" width="563"><figcaption></figcaption></figure>

> **Sobrepõe uma imagem com máscara sobre outra, sobrepondo apenas a parte mascarada.**

Entrada:

destination: A imagem base no espaço latente.

source: A imagem sobreposta no espaço latente.

Parâmetros:

x: A coordenada x da região de sobreposição.

y: A coordenada y da região de sobreposição.

resize\_source: Indica se a resolução da região mascarada será ajustada.

14. **Empty Latent Image (Imagem Latente Vazia)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/IWypa7b4wuBkEW4NkzYs/%E7%A9%BA%E6%BD%9C%E5%9C%A8%E5%9B%BE%E5%83%8F.png" alt="Latent - Empty Latent Image"><figcaption></figcaption></figure>

> **O Empty Latent Image pode ser usado para criar um conjunto de novas imagens latentes vazias. Essas imagens latentes podem então ser usadas em fluxos de trabalho como Text2Img, adicionando ruído e removendo ruído usando nós de amostragem.**

## Mask (Máscara)

1. **Load Image As Mask (Carregar Imagem como Máscara)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/IQqLugrOZaQQKizf7Ohv/%E5%8A%A0%E8%BD%BD%E5%9B%BE%E5%83%8F%E4%B8%BA%E9%81%AE%E7%BD%A9.png" alt="Mask - Load Image As Mask"><figcaption></figcaption></figure>

2. **Invert Mask (Inverter Máscara)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/Pa6s7pWyJUFlYdGxICjv/%E5%8F%8D%E8%BD%AC%E9%81%AE%E7%BD%A9.png" alt="Mask - Invert Mask"><figcaption></figcaption></figure>

3. **Solid Mask (Máscara Sólida)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/pLSWPaenlj8CIjDSOiNw/%E9%81%AE%E7%BD%A9%201.png" alt="Mask - Solid Mask" width="563"><figcaption></figcaption></figure>

> **Funciona como uma tela para gerar imagens e pode ser combinada com Mask Composite.**

4. **Convert Mask To Image (Converter Máscara em Imagem)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/nejjcEizXKpJQ8v0nBOw/%E9%81%AE%E7%BD%A9%E8%BD%AC%E5%9B%BE%E5%83%8F.png" alt="Mask - Convert Mask To Image"><figcaption></figcaption></figure>

5. **Convert Image To Mask (Converter Imagem em Máscara)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/UPW6z8w1rjv0a7YzNDGW/%E5%9B%BE%E5%83%8F%E5%88%B0.png" alt="Mask - Convert Image To Mask" width="545"><figcaption></figcaption></figure>

> **Converte a máscara em uma imagem em escala de cinza.**

6. **Feather Mask (Suavizar Máscara)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/GAspM0Iaruc2OpEoQvmC/%E7%BE%BD%E5%8C%96%E8%92%99%E7%89%88.png" alt="Mask - Feather Mask"><figcaption></figcaption></figure>

> **Aplica suavização à máscara.**

7. **Crop Mask (Cortar Máscara)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/ifbnH9ohBrT7mWT6DNwv/%E8%A3%81%E5%89%AA%E9%81%AE%E7%BD%A9.png" alt="Mask - Crop Mask"><figcaption></figcaption></figure>

> **Recorta a máscara para um novo formato.**

8. **Mask Composite (Composição de Máscara)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/wiR1KCyzeAXQsYi6n3wy/%E9%81%AE%E7%BD%A9.png" alt="Mask - Mask Composite" width="563"><figcaption></figcaption></figure>

> **Cola uma máscara em outra, conectando Solid Mask. Um valor de 0 representa preto, que não será desenhado, enquanto um valor de 1 representa branco, que será desenhado. Os valores nas duas Solid Masks conectadas devem ser diferentes, caso contrário, a máscara não terá efeito.**

Entrada:

destination(1): A máscara a ser colada, equivalente às dimensões finais da imagem.

source(0): A máscara a ser colada.

Parâmetros:

X,Y: Ajusta a posição da fonte.

operation: Quando a fonte é 0, use multiplicar; quando for 1, use adicionar.

## Sampler (Amostrador)

1. **KSampler (Amostrador baseado no método Karras)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/cKpWEXOjSx9H8HrUh2eY/%E9%87%87%E6%A0%B7%E5%99%A8.png" alt="Sampler - KSampler"><figcaption></figcaption></figure>

Entrada:

latent\_image: A imagem latente a ser denoizada.

Saída:

LATENT: A imagem latente após a remoção de ruído.

2. **KSampler Advanced (KSampler Avançado)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/D8GP68emb7opEG44d3BF/%E9%AB%98%E7%BA%A7%E9%87%87%E6%A0%B7%E5%99%A8.png" alt="Sampler - KSampler Advanced"><figcaption></figcaption></figure>

> **Você pode controlar manualmente o ruído.**

## Avançado

1. **Load Checkpoint With Config (Carregar Ponto de Verificação com Configuraçã**&#x6F;**)**&#x20;

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/RTiPewdSGaKeiM0IPKnQ/%E5%B8%A6%E9%85%8D%E7%BD%AE%E5%A4%A7%E6%A8%A1%E5%9E%8B.png" alt="Advanced - Load Checkpoint With Config"><figcaption></figcaption></figure>

> **Carrega o modelo de difusão com base no arquivo de configuração fornecido.**

## Outros nós (Atualizando)

1. **AIO Aux Preprocessor (Pré-processador Auxiliar AIO/Tudo em Um)**

<figure><img src="https://content.gitbook.com/content/H71dO7TuUPMHtPY8Ra8I/blobs/2oLu12ZbDkT7is87tuAA/%E9%9B%86%E6%88%90%E9%A2%84%E5%A4%84%E7%90%86.png" alt="AIO Aux Preprocessor" width="563"><figcaption></figcaption></figure>

> **Selecione diferentes pré-processadores para gerar imagens correspondentes.**
