Nodos principales

Aprende sobre los nodos principales de ComfyUI para manipulación de imágenes, condición y más. Construye potentes flujos de trabajo de arte con IA.

Imagen

  1. Pad Image for Outpainting

Core Nodes - Pad image for outpainting

Rellena y extiende la imagen, similar a la expansión. Primero aumenta el tamaño de la imagen y luego dibuja el área expandida como una máscara. Se recomienda usar VAE Encode (para Inpainting) para asegurar que la imagen original permanezca sin cambios.

Parámetros:

left、top、right、bottom: Cantidades de relleno para izquierda, arriba, derecha y abajo

feathering: Grado de difuminado en los bordes

  1. Save Image

Core Nodes - save image
  1. Load Image

Core Nodes - load image
  1. ImageBlur

Core Nodes - ImageBlur

Agrega un efecto de desenfoque a la imagen

Parámetros:

Sigma: Cuanto menor sea el valor, más concentrado estará el desenfoque alrededor del píxel central.

  1. Image Blend

Core Nodes - Image Blend

Fusiona dos imágenes usando transparencia

  1. Image Quantize

Core Nodes - Image Quantize

Reduce el número de colores de la imagen

Parámetros:

colors: Cuantiza el número de colores de la imagen. Si se establece en 1, la imagen tendrá un solo color.

dither: Si se va a utilizar difuminado para hacer que la imagen cuantizada aparezca más suave.

  1. Image Sharpen

Core Nodes - Image Sharpen

Parámetros:

sigma: Cuanto menor sea el valor, más concentrada estará la nitidez alrededor del píxel central.

  1. Invert Image

Core Nodes Invert Image

Invierte los colores de imagen.

  1. Ampliación (Upscaling)

9.1 Upscale Image (usando modelo)

Core Nodes - Upscale image using a model

9.2 Upscale Image

Core Nodes - Upscale image

El nodo Upscale Image puede utilizarse para redimensionar imágenes de píxeles.

Parámetros:

upscale_method: Selecciona el método de relleno de píxeles.

width: La anchura ajustada de la imagen

height: La altura ajustada de la imagen

crop: Si se recorta la imagen

  1. Preview Image

Core Nodes - Preview image

Loaders

  1. Load CLIP Vision

Loaders - Load CLIP Vision

Descodifica la imagen para formar descripciones (prompts), y luego conviértelas en entradas condicionales para el muestreador. A partir de las descripciones decodificadas (prompts), generar nuevas imágenes similares. Se pueden utilizar varios nodos a la vez. Adecuado para transformar conceptos, cosas abstractas, utilizado en combinación con Clip Vision Encode.

  1. Load CLIP

Loaders - Load CLIP

El nodo Load CLIP se utiliza para cargar un modelo CLIP específico; los modelos CLIP codifican indicaciones de texto que guían el proceso de difusión.

*Conditional diffusion models are trained using a specific CLIP model, using a different model than the one which it was trained with is unlikely to result in good images. The Load Checkpoint node automatically loads the correct CLIP model.

  1. unCLIP Checkpoint Loader

Loaders - unCLIP Checkpoint Loader

El nodo unCLIP Checkpoint Loader se puede utilizar para cargar un modelo de difusión diseñado específicamente para funcionar con unCLIP. Los modelos de difusión unCLIP se utilizan para eliminar el ruido de los latentes, condicionados no solo por el texto proporcionado, sino también por las imágenes suministradas. Este nodo también proporcionará los modelos adecuados de VAE, CLIP y CLIP vision.

*Aunque este nodo puede utilizarse para cargar todos los modelos de difusión, no todos los modelos de difusión son compatibles con unCLIP.

  1. Load ControInet Model

Loaders - Load ControInet Model

El nodo Load ControlNet Model se puede utilizar para cargar un modelo de ControlNet, usado en conjunto con Apply ControlNet.

  1. Load LoRA

Loaders - Load LoRA
  1. Load VAE

Loaders - Load VAE
  1. Load Upscale Model

Loaders - Load Upscale Model
  1. Load Checkpoint

Loaders - Load Checkpoint
  1. Load Style Model

Loaders - Load Style Model

El nodo Load Style Model se puede utilizar para cargar un modelo de estilo. Los modelos de estilo pueden usarse para proporcionar al modelo de difusión una pista visual sobre el tipo de estilo que debe tener el latente una vez eliminado el ruido.

*Actualmente, solo se admiten modelos de estilo T2IAdaptor.

  1. Hypernetwork Loader

Loaders - Hypernetwork Loader

El nodo Hypernetwork Loader se puede utilizar para cargar una hiperred. De manera similar a las LoRAs, se usan para modificar el modelo de difusión y alterar la forma en que se eliminan el ruido de los latentes. Los casos de uso típicos incluyen agregar al modelo la capacidad de generar en ciertos estilos o mejorar la generación de ciertos sujetos o acciones. Incluso se pueden encadenar múltiples hiperredes para modificar aún más el modelo.

Condicionamiento

  1. Aplica ControlNet

Conditioning - Apply ControlNet

Load ControlNet model, que puede conectar múltiples nodos ControlNet.

Parámetros:

strength: Cuanto mayor sea el valor, más fuerte será la restricción sobre la imagen.

*La imagen de ControlNet debe ser la imagen preprocesada correspondiente; por ejemplo, la imagen preprocesada con Canny debe corresponder al grafo preprocesado con Canny. Por lo tanto, es necesario agregar nodos correspondientes entre la imagen original y ControlNet para preprocesarla en el grafo preprocesado

  1. CLIP Text Encode (Prompt)

Conditioning - Input text prompts

Introduce textos de indicaciones, incluyendo indicaciones positivas y negativas.

  1. CLIP Vision Encode

Conditioning - Steps to CLIP Vision Encode

Decodifica la imagen para generar descripciones (prompts) y luego conviértelas en entradas condicionales para el sampler. Basándose en las descripciones decodificadas (prompts), genera nuevas imágenes similares. Se pueden usar múltiples nodos juntos. Es adecuado para transformar conceptos o cosas abstractas y se utiliza en conjunto con Load Clip Vision.

  1. CLIP Set Last Layer

Conditioning - CLIP Set Last Layer

Clip Skip, generalmente se establece en -2.

  1. GLIGEN Textbox Apply

Conditioning - GLIGEN Textbox Apply

Guía las indicaciones para que generen en la porción especificada de la imagen.

*El origen del sistema de coordenadas en ComfyUI se encuentra en la esquina superior izquierda.

  1. unCLIP Conditioning

Conditioning - unCLIP Conditioning

Las imágenes codificadas a través del modelo CLIP vision proporcionan una guía visual adicional para el modelo unCLIP. Este nodo puede encadenarse para ofrecer múltiples imágenes como guía.

  1. Conditioning Average

Conditioning - Conditioning Average

Mezcla dos fuentes de información según su intensidad. Cuando conditioning_to_strength se establece en 1, la difusión estará influenciada únicamente por conditioning_to. Cuando conditioning_to_strength se establece en 0, la difusión de la imagen estará influenciada únicamente por conditioning_from.

  1. Apply Style Model

Conditioning - Apply Style Model

Puedes usarlo para proporcionar una guía visual adicional al modelo de difusión, especialmente en cuanto al estilo de las imágenes generadas.

  1. Conditioning (Combine)

Conditioning - Combine

Mezcla dos fuentes de información.

  1. Conditioning (Set Area)

Conditioning - Set Area

Conditioning (Set Area) se puede usar para limitar la región afectada dentro de un área específica de la imagen. Usado junto con Conditioning (Combine), permite un mejor control sobre la composición de la imagen final.

Parámetros:

  • width: El ancho de la región de control

  • height: La altura de la región de control

  • x: La coordenada x del origen de la región de control

  • y: La coordenada y del origen de la región de control

  • strength: La intensidad de la información condicional

*El origen del sistema de coordenadas en ComfyUI se encuentra en la esquina superior izquierda.

Como se muestra en la figura: establece el lado izquierdo como "gato" y el lado derecho como "perro".

  1. Conditioning (Set Mask)

Conditioning - Set Mask

Conditioning (Set Mask) se puede usar para limitar un ajuste dentro de una máscara específica. Usado junto con el nodo Conditioning (Combine), permite un mejor control sobre la composición de la imagen final.

Latent

  1. VAE Encode(for Inpainting)

Latent - VAE Encde for Inpainting

Aplicable para repintado parcial. Haz clic derecho para realizar el repintado parcial mediante Abrir en MaskEditor.

  1. Set Latent Noise Mask

Latent - Set Latent Noise Mask

El segundo método para el repintado parcial consiste primero en codificar la imagen mediante un codificador VAE, para transformarla en contenido reconocible en el espacio latente. Luego, se regenera la parte enmascarada dentro de ese espacio latente.

En comparación con el método VAE Encode (for Inpainting), este enfoque puede comprender mejor el contenido que necesita ser regenerado, lo que reduce la probabilidad de generar imágenes incorrectas. Hará referencia a la imagen que se va a rehacer.

  1. Rotate Latent

Latent - Rotate Latent

Gira la imagen en sentido horario.

  1. Flip Latent

Latent - Flip Latent

Voltea la imagen horizontal o verticalmente.

  1. Crop Latent

Latent - Crop Latent

Se utiliza para recortar la imagen y darle una nueva forma.

  1. VAE Encode

Latent - VAE Encode
  1. VAE Decode

Latent - VAE Decode
  1. Latent From Batch

Latent - Latent From Batch

Extrae imágenes latentes de lotes. El nodo Latent From Batch se puede usar para seleccionar una imagen latente o un segmento de imagen de un lote. Esto es muy útil en flujos de trabajo donde se necesita aislar imágenes latentes o imágenes específicas.

Parámetros:

batch_index: El índice de la primera imagen latente que se desea seleccionar.

length: La cantidad de imágenes latentes que se desea extraer.

  1. Repeat Latent Batch

Latent - Repeat Latent Batch

Repite un lote de imágenes, útil para crear múltiples variaciones de una imagen en un flujo de trabajo de Imagen a imagen.

Parámetros:

amount: La cantidad de repeticiones.

  1. Rebatch Latents

Latent - Rebatch Latents

Puedes usarlo para dividir o fusionar lotes de imágenes en espacio latente.

  1. Upscale Latent

Latent - Upscale Latent

Ajusta la resolución de las imágenes en el espacio latente, rellenando los píxeles.

Parámetros:

  • upscale_method: El método para rellenar los píxeles.

  • width: El ancho de la imagen ajustada en el espacio latente.

  • height: La altura de la imagen ajustada en el espacio latente.

  • crop: Indica si la imagen debe recortarse.

*La imagen ampliada en el espacio latente puede sufrir degradación al ser decodificada mediante VAE. Se puede usar KSampler para un muestreo secundario y así reparar la imagen.

  1. Latent Composite

Latent - Latent Composite

Superpone una imagen sobre otra.

Parámetros:

  • x: La coordenada x de la posición de superposición de la capa superior.

  • y: La coordenada y de la posición de superposición de la capa superior.

  • feather: Indica el grado de difuminado en los bordes.

*La imagen debe estar codificada (VAE Encode) en el espacio latente.

  1. Latent Composite Masked

Latent - Latent Composite Masked

Superpone una imagen con una máscara sobre otra, superponiendo únicamente la parte enmascarada.

Entrada

destination: La imagen en espacio latente subyacente. source: La imagen en espacio latente que se superpone.

Parámetros:

  • x: La coordenada x de la región de superposición.

  • y: La coordenada y de la región de superposición.

  • resize_source: Indica si se debe ajustar la resolución de la región enmascarada.

  1. Empty Latent Image

Latent - Empty Latent Image

El nodo Empty Latent Image se puede usar para crear un conjunto de nuevas imágenes latentes vacías. Estas imágenes latentes pueden luego utilizarse en flujos de trabajo como Texto a imagen, añadiéndoles ruido y eliminándolo mediante nodos de muestreo.

Mask

  1. Load Image As Mask

Mask - Load Image As Mask
  1. Invert Mask

Mask - Invert Mask
  1. Solid Mask

Mask - Solid Mask

Funciona como un lienzo para generar imágenes y puede combinarse con Mask Composite.

  1. Convert Mask To Image

Mask - Convert Mask To Image
  1. Convert Image To Mask

Mask - Convert Image To Mask

Convierte la máscara en una imagen en escala de grises.

  1. Feather Mask

Mask - Feather Mask

Aplica un difuminado (feathering) a la máscara.

  1. Crop Mask

Mask - Crop Mask

Recorta la máscara a una nueva forma.

  1. Mask Composite

Mask - Mask Composite

Pega una máscara dentro de otra, conectando Solid Mask. Un valor de 0 representa negro, que no se dibujará, mientras que un valor de 1 representa blanco, que sí se dibujará. Los valores en las dos Solid Masks conectadas deben ser diferentes; de lo contrario, la máscara no tendrá efecto.

Entrada:

  • destination(1): La máscara en la que se va a pegar, equivalente a las dimensiones finales de la imagen.

  • source(0): La máscara que se va a pegar.

Parámetros:

  • X, Y: Ajustan la posición de la máscara fuente.

  • operation: Cuando el valor es 0, se utiliza la operación multiplicar; cuando es 1, se utiliza la operación sumar.

Sampler

  1. KSampler

Sampler - KSampler

Entrada:

latent_image: La imagen latente que se va a eliminar el ruido.

Salida:

LATENT: La imagen latente después de la eliminación de ruido.

  1. KSampler Advanced

Sampler - KSampler Advanced

Puedes controlar manualmente el ruido.

Advanced

  1. Load Checkpoint With Config

Advanced - Load Checkpoint With Config

Carga el modelo de difusión basado en el archivo de configuración proporcionado.

Otros nodos(actualizando)

  1. AIO Aux Preprocessor

AIO Aux Preprocessor

Selecciona diferentes preprocesadores para generar las imágenes correspondientes.