画像変換
ComfyUIの画像変換をマスターしよう!このガイドでは、正確なコントロール、顔の参照、高精細なアップスケーリングを使用してImage-To-Imageを強化するための高度な技術を探ります。
Last updated
ComfyUIの画像変換をマスターしよう!このガイドでは、正確なコントロール、顔の参照、高精細なアップスケーリングを使用してImage-To-Imageを強化するための高度な技術を探ります。
Last updated
思考プロセス:
ComfyUIの画像変換は、WebUIのImg2Imgに似ており、元の画像をアップロードしてモデルを通じてそのスタイルを変更します。しかし、変換の精度を高めるために、いくつかの新しいステップを追加することができます:
1. 元の画像のサイズを制御するためにモデル拡大ノードを追加します。
2. 元の画像に類似性を高める:
a. IPAdapter FaceIDを使用して顔の特徴を参照します。
b. 元の画像プロンプトを逆解析します。
c. ControlNet(OpenPose、Canny、Depth)を追加します。
3. 最終画像をアップスケールします。
Img2Imgテンプレートを基に構築を開始できます。まず、元の画像の背後に「Upscale Image By」ノードを選択的に追加して元の画像のサイズを制御します。必要に応じてLoRAを追加できますが、追加しなくても構いません。「CLIP Set Last Layer」ノードを必要に応じて追加し、このノードを省略することもできます。このノードはレイヤーをスキップすることができ、最終的に対応するノードを接続します。
追加するノード:
Upscale Image By
CLIP Set Last Layer
(プロンプトの逆解析 + IPAdapter + Control Net)
プロンプトの逆解析:WD14 Taggerノード
WD14 Taggerノードを検索して追加します。
画像ノードを接続します。
正のプロンプトノードを右クリックして「テキストを入力に変換」を選択し、WD14 Taggerを正のプロンプトノードに接続します。
ただし、これには画像からのプロンプトのみが含まれます。他のプロンプトを追加したい場合は、複数のプロンプトセグメントを一緒に接続できる新しいText Concatenateノードを作成する必要があります。
次に、新しいPrimitiveノードを作成します。Primitiveノードは、任意のノードに接続して関連属性になることができます。
追加のプロンプト、例えばLoRAトリガーワードや品質ワードなどをPrimitiveに入力します。
この時点で、プロンプトには画像から逆解析されたものと入力したものの両方が含まれます。
次に、顔の特徴を参照するためにIPAdapter FaceIDを設定します:
IPAdapter FaceIDを検索して入力ノードに一致させます。
ノードをドラッグした後、新しいノードを作成します:
ipadapter→ IPAdapter Model Loader
clip_vision→ Load CLIP Vision
insightface→ IPAdapter InsightFace Loader
出力をサンプラーに接続します。
追加するノード:
IPadapter FaceID
IPAdapter Model Loader
Load CLIP Vision
IPAdapter InsightFace Loader
ControlNetの設定
複数のControlNetを追加できるCR Multi-ControlNet Stackノードを使用することをお勧めします。次に、対応する前処理装置を追加します。ControlNetにはOpenPose、Canny、Depthを使用することをお勧めします。最終的なビジュアルニーズに基づいて追加または削除することができます。その後、出力にControlNet適用ノードを追加します:CR Apply Multi-ControlNet。前処理装置の解像度を1024に設定することをお勧めします。
*使用するControlNetのスイッチをオンにすることを忘れないでください。
入力:
正のプロンプトノードと負のプロンプトノードに接続。
出力:
サンプラーに接続。
追加するノード:
CR Multi-ControlNet Stack
CR Apply Multi-ControlNet
モデルグループと元の画像の参照を設定した後、最終出力で画像の高精細復元ステップを追加できます:
追加するノード:Upscale Image (using Model)
ノードを組み立てた後、それらをグループ化してより見やすく整理できます。
最後に、出力画像に基づいて関連するパラメータを調整する必要があります。例えば、ckpt、LoRAの重み、プロンプトワード、サンプラー、リドロースケールなどです。
この変換の主要なパラメータは次のとおりです:
CLIP _layer:-2
Upscale Image By: 1.5
steps: 40
sampler_name: dpmpp_2m
scheduler: karras
denoise: 0.7
注:SDXLモデルを選択する場合、対応するSDXL LoRAも必要であり、ControlNetをSDXLに調整する必要があります。そうでなければ、画像出力が失敗します。
上記は、画像変換の完全なワークフローです。これに基づいて、最終画像を調整するためにVAEやFreeU_V2を追加することもできます:
FreeU_V2: 主に色を制御し、いくつかのコンテンツを抽出して最適化します。
Load VAE: 画像の色と詳細を微調整します。
このようなワークフローを通じて、さまざまなスタイルへの変換を実現できます。