はい、承知いたしました。
ComfyUIの入門ガイドとして、インストールから応用的な使い方までを網羅した詳細な記事を作成します。以下、記事本文です。
ComfyUI入門ガイド|Stable Diffusionを自由自在に操る次世代UI
はじめに:画像生成AIの新時代を切り拓くComfyUI
近年、目覚ましい発展を遂げている画像生成AI「Stable Diffusion」。簡単なテキスト(プロンプト)を入力するだけで、プロのアーティストが描いたような美麗なイラストや、本物と見紛うほどのリアルな写真を生成できるこの技術は、多くのクリエイターやエンジニアを魅了してきました。
そのStable Diffusionをローカル環境で利用するためのUI(ユーザーインターフェース)として、これまで「AUTOMATIC1111 Web UI」(以下、A1111)がデファクトスタンダードとして広く使われてきました。しかし、その座を揺るがす強力な対抗馬として、今、急速に注目を集めているのが「ComfyUI」です。
ComfyUIは、一見すると複雑に見える「ノードベース」のUIを採用しています。これは、動画編集ソフトや3Dグラフィックツールなどで見られる、機能のブロック(ノード)を線でつなぎ合わせて処理の流れ(ワークフロー)を構築する方式です。
(※この記事では、本来画像で示すべき箇所を文章で補足説明します。ComfyUIの画面は、白いキャンバス上に四角い「ノード」が複数配置され、それらが線で結ばれている様子を想像してください。)
このノードベースUIは、A1111のようなフォーム形式のUIに慣れたユーザーにとっては、最初は戸惑うかもしれません。しかし、その独特なインターフェースの裏には、従来のUIが抱えていた課題を解決し、Stable Diffusionのポテンシャルを最大限に引き出すための、数多くの革新的なメリットが隠されています。
- 圧倒的な自由度: txt2img, img2img, Inpainting, ControlNet, LoRA… これらすべての機能を、レゴブロックのように自由に組み合わせ、自分だけのオリジナルな画像生成フローを構築できます。
- 完全な透明性: 画像がどのようなプロセスを経て生成されたのか、データの流れがすべて可視化されます。Stable Diffusionの「仕組み」を根本から理解できます。
- 完璧な再現性: 作成したワークフローは、画像データそのものに埋め込んで保存・共有できます。他の人が作った高クオリティな画像を、ワンクリックで自分の環境で完全に再現可能です。
- 優れたパフォーマンス: 必要なモデルだけをVRAM(ビデオメモリ)に読み込むため、リソース効率が良く、A1111よりも軽量に動作します。
この記事は、そんな次世代UI「ComfyUI」の入門ガイドです。インストール方法から基本的な使い方、LoRAやControlNetといった応用テクニック、そして制作環境を劇的に効率化する必須ツールまで、約5000語にわたって徹底的に解説します。
最初は難しく感じるかもしれませんが、この記事を読み終える頃には、あなたはComfyUIを自在に操り、Stable Diffusionの真の力を解き放つ準備が整っているはずです。さあ、創造性の限界を超える、新たな画像生成の世界へ旅立ちましょう。
第1章: なぜ今、ComfyUIなのか?
A1111という強力なUIが存在する中で、なぜ多くのパワーユーザーがComfyUIへと移行し始めているのでしょうか。その理由は、ComfyUIが提供する根本的な思想の違いにあります。
1. ComfyUIの核心:ノードベースUIという革命
従来のA1111は、Webページのようなフォームに設定値を入力していくスタイルでした。これは直感的で分かりやすい反面、内部で何が起きているのかが「ブラックボックス」になりがちでした。例えば、「Hires. Fix」という高解像度化機能を使うと、裏側ではimg2imgのプロセスが動いていますが、ユーザーはその詳細なフローを意識することはありません。
一方、ComfyUIはStable Diffusionの画像生成プロセスを構成する要素を、すべて個別の「ノード」として分解します。
- ノード (Node): 特定の機能を持つ処理のブロック。「モデルを読み込む」「プロンプトを変換する」「ノイズを除去する」といった役割を持ちます。
- コネクタ (Connector): ノード同士をつなぐ線。あるノードの出力(データ)を、別のノードの入力へと渡します。
例えば、最も基本的なテキストから画像を生成する「txt2img」のプロセスは、ComfyUIでは以下のようなノードの連なりとして表現されます。
[モデル読込] → [プロンプト変換] → [サンプラー] → [画像デコード] → [画像保存]
↑ ↑
[ネガティブプロンプト変換] -----------------┘
ユーザーは、これらのノードを自らの手でつなぎ合わせることで、データがどのように流れ、加工され、最終的に一枚の画像になるのかを視覚的に理解し、完全にコントロールすることができます。これは単なるUIの変更ではなく、Stable Diffusionとの向き合い方を根本から変える、パラダイムシフトと言えるでしょう。
2. ComfyUIを選ぶべき4つの圧倒的メリット
ノードベースUIがもたらす恩恵は、計り知れません。ここでは、ComfyUIがA1111と比較して優れている4つの主要な点を解説します。
(1) 圧倒的な自由度と拡張性
A1111では、txt2imgやimg2imgといった機能はタブで明確に分かれており、それらを複雑に組み合わせることは困難でした。しかしComfyUIでは、すべての機能がフラットな「ノード」であるため、発想次第で無限の組み合わせが可能です。
- ControlNetを複数同時に適用する。
- あるLoRAを適用した結果を、さらに別のControlNetで制御する。
- 画像の特定部分だけに別のプロンプトを適用してInpaintingする。
このような複雑なワークフローも、ノードをつなぎ替えるだけで直感的に構築できます。さらに、「カスタムノード」という形で世界中の開発者が新しい機能を追加しており、その拡張性は無限大です。
(2) 完全な透明性と再現性
ComfyUIのキラー機能の一つが、ワークフローの保存・共有機能です。
作成したワークフロー全体は、Save
ボタンでJSONファイルとして保存できます。しかし、それ以上に強力なのが、生成したPNG画像自体に、そのワークフローが丸ごと埋め込まれる点です。
これは何を意味するのでしょうか?
あなたがWeb上で見つけた素晴らしいComfyUI製の画像をダウンロードし、それをComfyUIの画面にドラッグ&ドロップするだけで、その画像を生成したモデル、プロンプト、各種パラメータ、そしてノードの配置まで、すべてが完全に復元されるのです。
「この神絵はどうやって作ったんだろう?」という疑問は、もはや存在しません。レシピがすべて公開されている料理のようなものです。これにより、他者の優れた技術を学び、自分の作品に応用することが極めて容易になります。
(3) 優れたパフォーマンスと軽量性
A1111は起動時に多くの機能をメモリに読み込みますが、ComfyUIはワークフロー上で実際に使用されているノードに関連するモデルだけをVRAMにロードします。
例えば、ControlNetを使わないワークフローを実行している間は、ControlNetモデルはVRAMを一切消費しません。これにより、特にVRAM容量が限られているグラフィックボードを使用しているユーザーにとっては、パフォーマンスの向上が期待できます。生成速度そのものも、最適化によってA1111より高速になるケースが多く報告されています。
(4) 最新技術への迅速な対応
ComfyUIは開発が非常に活発で、Stable Diffusion界隈の最新技術(例えば、SDXLやStable Diffusion 3のアーキテクチャ)への対応が非常に早いことで知られています。新しいサンプラーや制御技術が登場した際も、カスタムノードとしてすぐに有志によって実装されることが多く、常に最先端の画像生成環境を維持することができます。
第2章: ComfyUIのインストールと初期設定
それでは、早速ComfyUIをあなたのPCに導入しましょう。ここでは、最も簡単なWindows向けのインストール方法と、モデルファイルの配置について解説します。
1. インストール方法 (Windows Standalone版)
専門的な知識は不要です。以下の手順に従うだけで、数分でComfyUIを起動できます。
-
ファイルのダウンロード:
ComfyUIのGitHubリリースページにアクセスします。
https://github.com/comfyanonymous/ComfyUI/releases
最新バージョンの「Assets」セクションにある「ComfyUI_windows_portable_…zip」という名前のリンクをクリックして、ファイルをダウンロードします。(NVIDIAのGPUをお使いの場合は_nvidia
と付いているものが推奨です) -
ファイルの解凍:
ダウンロードしたzipファイルは非常にサイズが大きいため、Windows標準の解凍機能ではエラーが出ることがあります。7-Zip などの高性能な解凍ソフトを使って、任意の場所(例:D:\ComfyUI
)に解凍してください。パスに日本語(全角文字)を含まない、浅い階層のフォルダに置くことをお勧めします。 -
ComfyUIの起動:
解凍したフォルダの中に、「run_nvidia_gpu.bat」(NVIDIA製GPUの場合)または「run_cpu.bat」(GPUがない場合)というファイルがあります。これをダブルクリックしてください。
初回起動時は、必要なライブラリのダウンロードが始まるため、少し時間がかかります。黒いコマンドプロンプトの画面にログが流れ、最終的にTo see the GUI go to: http://127.0.0.1:8188
というメッセージが表示されたら起動完了です。 -
ブラウザでアクセス:
お使いのWebブラウザ(Chrome, Edgeなど)を起動し、アドレスバーにhttp://127.0.0.1:8188
と入力してアクセスします。ComfyUIのノードベースUIが表示されれば、インストールは成功です。
2. モデルファイルの配置
ComfyUIをインストールしただけでは、画像生成はできません。絵を描くための「脳」となるStable Diffusionのモデルファイル(チェックポイント)を配置する必要があります。
ComfyUIのフォルダ構造
解凍したComfyUIのフォルダ内には、models
というフォルダがあります。主要なモデルは、このmodels
フォルダの中にある、それぞれの役割に応じたサブフォルダに配置します。
-
チェックポイント (モデル本体):
ComfyUI\models\checkpoints\
ここに、.safetensors
や.ckpt
形式のStable Diffusionモデルファイルを置きます。CivitaiやHugging Faceからダウンロードした、画風の基本となるモデルです。 -
VAE (画質向上モデル):
ComfyUI\models\vae\
画像の色彩や細部の表現を改善するVAEファイルを置きます。必須ではありませんが、より高品質な画像を生成するためには配置を推奨します。 -
LoRA (追加学習モデル):
ComfyUI\models\loras\
特定のキャラクターや画風、構図などを再現するためのLoRAファイルを置きます。 -
ControlNet:
ComfyUI\models\controlnet\
ポーズや構図を制御するためのControlNetモデルファイルを置きます。 -
Embeddings (Textual Inversion):
ComfyUI\models\embeddings\
特定の概念や画風を呼び出すためのEmbeddingファイルを置きます。
【超便利】A1111とモデルを共有する方法
すでにA1111を使っていて、大量のモデルをダウンロード済みの場合は、それらをComfyUIのためにコピーする必要はありません。設定ファイルを1つ編集するだけで、A1111のモデルフォルダをComfyUIから参照できるようになり、ディスク容量を大幅に節約できます。
- ComfyUIのルートフォルダ(
run_nvidia_gpu.bat
がある場所)に、「extra_model_paths.yaml.example」というファイルがあります。 - このファイルをコピー&ペーストして複製し、名前を「extra_model_paths.yaml」に変更します。
- 「extra_model_paths.yaml」をテキストエディタ(メモ帳など)で開きます。
-
以下のように、あなたのA1111のインストール先フォルダを
base_path
に指定し、各モデルフォルダへのパスを記述します。“`yaml
A1111のモデルフォルダへのパスを指定
a1111:
base_path: D:\stable-diffusion-webui # あなたのA1111のパスに書き換えてください# 各モデルの場所を指定 checkpoints: models/Stable-diffusion configs: models/Stable-diffusion vae: models/VAE loras: models/Lora upscale_models: models/ESRGAN embeddings: embeddings hypernetworks: models/hypernetworks controlnet: models/ControlNet
“`
5. ファイルを上書き保存し、ComfyUIを再起動します。
これで、ComfyUIの各ノードのモデル選択リストに、A1111で使っているモデルがすべて表示されるようになります。
第3章: ComfyUIの基本操作と画面の見方
ComfyUIの画面は非常にシンプルです。主要な要素と基本的な操作方法を覚えましょう。
1. UIの全体像
- キャンバス: 画面の大部分を占める、ノードを自由に配置・接続するための広大な作業スペースです。
- メニューパネル: 画面右側にある操作パネルです。ワークフローの保存や読み込み、生成の実行などを行います。
- キュー (Queue): メニューパネルの下部にあり、生成予約の数(Queue Size)が表示されます。
2. 基本的なマウス・キーボード操作
- ノードの追加: キャンバスの何もないところをダブルクリックするのが最も簡単です。検索ウィンドウが表示されるので、追加したいノード名(例:
Load LoRA
)を入力して選択します。または、右クリック →Add Node
からカテゴリを辿って追加することもできます。 - ノードの接続: ノードの右側にある丸い点(出力ソケット)をドラッグし、別のノードの左側にある丸い点(入力ソケット)まで持っていき、ドロップします。対応するデータ型同士でないと接続できません。
- ノードの移動: ノードの上部タイトルバーをドラッグ&ドロップします。
- ノードの削除: ノードを選択した状態で
Delete
キーを押します。 - キャンバスの移動:
Space
キーを押しながらドラッグ、またはマウスの中央ボタンをドラッグします。 - キャンバスのズーム: マウスホイールを上下にスクロールします。
- パラメータの変更: ノード内にあるテキストボックスに数値を入力したり、スライダーを動かしたりして設定を変更します。
3. 主要なメニュー項目
右側のメニューパネルにある、特に重要なボタンを覚えておきましょう。
- Queue Prompt (Ctrl+Enter): 現在キャンバス上にあるワークフローを生成キューに追加し、実行します。最もよく使うボタンです。
- Load / Save: 現在のワークフローをJSON形式のファイルとしてPCに保存したり、保存したファイルを読み込んだりします。
- Load Default: ワークフローを、ComfyUI起動時の初期状態(基本的なtxt2img)に戻します。
- Clear: キャンバス上のすべてのノードを消去し、真っ白な状態にします。
- Load Image: このボタンから画像を選択するか、PC上のPNG画像を直接キャンバスにドラッグ&ドロップすることで、その画像に埋め込まれたワークフローを読み込めます。(第1章で解説したキラー機能です)
第4章: 実践!最初の画像を生成してみよう (txt2img)
理論はここまでです。実際に手を動かして、ComfyUIで最初の画像を生成してみましょう。ComfyUIを起動すると、デフォルトで最も基本的なtxt2imgのワークフローが組まれています。このワークフローを解剖しながら、画像生成の流れを理解します。
1. デフォルトワークフローの解剖
デフォルトの画面には、左から右へデータが流れるように、いくつかのノードが接続されています。それぞれの役割を見ていきましょう。
┌───────────────┐ ┌───────────────┐ ┌────────────────┐ │ Load Checkpoint │─(MODEL)─>│ KSampler │ └───────────────┘ │ CLIP Text Encode │─(POSITIVE)─>│ │ │ (Prompt) │ │ │ └───────────────┘ │ │ │ │ ┌───────────────┐ │ │ │ CLIP Text Encode │─(NEGATIVE)─>│ │ │ (Negative) │ │ │ └───────────────┘ │ │ │ │ ┌─────────────────┐ ┌───────────────┐ │ │ │ Empty Latent Image│─(LATENT)─>│ ├─(LATENT)─> ... └─────────────────┘ └───────────────┘ └────────────────┘
-
Load Checkpoint:
画像生成の基盤となるStable Diffusionモデル(.safetensors
)を選択します。ここからMODEL
、CLIP
、VAE
という3種類のデータが出力され、後続のノードに渡されます。 -
CLIP Text Encode (Prompt):
2つありますが、上側がポジティブプロンプト用です。ここに入力されたテキスト(例:1girl, best quality, beautiful face
)を、CLIPモデルが理解できる数値データ(CONDITIONING
)に変換します。 -
CLIP Text Encode (Negative):
下側がネガティブプロンプト用です。ここには、生成したくない要素(例:worst quality, low quality, bad hands
)を入力します。これも同様にCONDITIONING
に変換されます。 -
Empty Latent Image:
生成する画像のキャンバスを準備するノードです。width
(幅)、height
(高さ)、batch_size
(一度に生成する枚数)を設定します。ここではまだ画像ではなく、「潜在空間(Latent Space)」と呼ばれる、ノイズだけのデータが作られます。 -
KSampler:
ComfyUIの心臓部です。ここですべての魔法が起こります。model
: Checkpointからモデル情報を受け取ります。positive
/negative
: プロンプトから指示を受け取ります。latent_image
:Empty Latent Image
からノイズのキャンバスを受け取ります。- このノードは、ノイズのキャンバスに対して、プロンプトの指示に従いながら、決められた回数(
steps
)だけノイズを除去していく処理(サンプリング)を行います。
KSamplerの主要パラメータ:
–seed
: 生成結果を固定するための乱数シード。同じシード値を使えば、同じ画像が生成されます。
–steps
: サンプリングのステップ数。大きいほど高品質になりますが、時間もかかります。(20~30が一般的)
–cfg
: プロンプトへの忠実度。値を高くするとプロンプトに厳密に従いますが、破綻しやすくなります。(5~8が一般的)
–sampler_name
: サンプリングのアルゴリズム。euler
,dpmpp_2m_sde_gpu
など、様々な種類があります。画風に影響します。
–scheduler
:sampler_name
と連動するスケジューラ。通常はnormal
やkarras
が使われます。 -
VAE Decode:
KSamplerが生成した潜在空間のデータ(LATENT
)を、私たち人間が見える通常のピクセル画像(IMAGE
)に変換(デコード)します。 -
Save Image:
VAE Decode
から受け取った画像をPCに保存します。このノード上に生成結果のプレビューも表示されます。filename_prefix
で保存ファイル名の接頭辞を設定できます。
2. 実際に画像を生成する手順
Load Checkpoint
ノードのファイル名をクリックし、あなたがComfyUI/models/checkpoints/
に配置したモデルを選択します。- 上の
CLIP Text Encode
ノードのテキストエリアに、生成したい画像のプロンプトを入力します。
(例:masterpiece, best quality, 1girl, solo, silver hair, blue eyes, sailor suit, looking at viewer, in the classroom, sunlight
) - 下の
CLIP Text Encode
ノードに、ネガティブプロンプトを入力します。
(例:(worst quality, low quality:1.4), bad hands, missing fingers, extra fingers, blurry, watermark, text
) Empty Latent Image
ノードで、width
とheight
を512
などに設定します。KSampler
ノードのパラメータを調整します。まずはデフォルトのままでも構いません。seed
の値を好きな数字に変えてみましょう。- 準備ができたら、右側のメニューにある
Queue Prompt
ボタンをクリック(またはCtrl+Enter
)! - 実行中のノードが緑色にハイライトされ、処理が進んでいきます。
- すべての処理が終わると、
Save Image
ノードに生成された画像が表示されます。画像はComfyUI/output/
フォルダに自動で保存されています。
おめでとうございます! これであなたはComfyUIで画像を生成する第一歩を踏み出しました。
第5章: ワークフローを拡張する (応用編)
ComfyUIの真価は、基本的なtxt2imgに様々な機能を追加していくことで発揮されます。ここでは代表的な応用例を4つ紹介します。
1. LoRAを使ってみよう
特定のキャラクターや画風を再現するLoRAは、ComfyUIで非常に簡単に利用できます。
- キャンバスをダブルクリックし、
Load LoRA
と検索してノードを追加します。 Load Checkpoint
から出ているMODEL
とCLIP
の線を、一度Load LoRA
ノードのmodel
とclip
入力に接続します。- 次に、
Load LoRA
から出ているMODEL
とCLIP
の線を、元々つながっていたKSampler
のmodel
と、2つのCLIP Text Encode
のclip
にそれぞれ接続します。
【ポイント】Load Checkpoint
と他のノードの「間に挟み込む」イメージです。
[Checkpoint] --MODEL-> [Load LoRA] --MODEL-> [KSampler]
--CLIP--> [Load LoRA] --CLIP--> [Text Encode] Load LoRA
ノードで、使いたいLoRAファイル(.safetensors
)を選択し、strength_model
とstrength_clip
で適用強度(通常は0.7~1.0)を調整します。Queue Prompt
で生成を実行すると、LoRAの効果が反映された画像が生成されます。- 複数のLoRAを使いたい場合は、
Load LoRA
ノードを数珠つなぎにしていくだけです。
2. img2img (画像から画像を生成)
元になる画像を用意し、それを変化させて新しい画像を生成するimg2imgも簡単です。
Empty Latent Image
ノードは不要なので、選択してDelete
キーで削除します。Load Image
ノード(image
>Load Image
)を追加し、upload
ボタンから元画像をアップロードします。VAE Encode
ノード(latent
>VAE Encode
)を追加します。Load Image
のIMAGE
出力をVAE Encode
のpixels
入力に、Load Checkpoint
のVAE
出力をVAE Encode
のvae
入力に接続します。VAE Encode
のLATENT
出力を、KSampler
のlatent_image
入力に接続します。- 【最重要】
KSampler
のdenoise
パラメータを調整します。denoise
は、元画像をどれだけ変化させるか(ノイズをどれだけ追加して再生成するか)を決める値です。1.0
: 元画像は完全に無視され、txt2imgとほぼ同じ結果になります。0.0
: 元画像が全く変化しません。0.5
~0.8
あたりに設定すると、元画像の構図や色合いを保ちつつ、プロンプトの内容を反映させた画像を生成できます。
3. Inpainting (画像の特定部分を修正・変更)
画像の不要な部分を消したり、何かを描き加えたりするInpaintingは、img2imgの応用です。
- img2imgと同様のワークフローを組みます。
Load Image
ノードに画像をアップロードした後、ノードの上で右クリック →Open in MaskEditor
を選択します。- マスクエディタ画面が開くので、ブラシで変更したい部分を塗りつぶします。塗り終わったら
Save to node
をクリックします。 - すると、
Load Image
ノードからMASK
という新しい出力ソケットが出現します。 VAE Encode
の代わりに、「VAE Encode (for Inpainting)」ノードを使います。Load Image
のIMAGE
をVAE Encode (for Inpainting)
のpixels
に、MASK
をmask
に接続します。- あとはimg2imgと同様に、
VAE Encode (for Inpainting)
のLATENT
をKSampler
のlatent_image
に接続します。 KSampler
のdenoise
は1.0
に設定します。これにより、マスクした部分だけが完全に再生成され、それ以外の部分は保護されます。CLIP Text Encode
に、マスクした部分に描きたいもののプロンプト(例:a cat is sitting
)を入力して生成します。
4. ControlNetでポーズや構図を制御する
参照画像のポーズや輪郭を抽出して、画像生成を強力にガイドするControlNetも、ComfyUIの得意分野です。ここではOpenPose(人物の骨格)を例に解説します。
Load ControlNet Model
ノード(loaders
>ControlNet
)を追加し、使用するモデル(例:control_v11p_sd15_openpose.pth
)を選択します。Load Image
ノードを追加し、ポーズの参照元となる人物画像をアップロードします。OpenPosePreprocessor
ノード(ControlNet
>preprocessors
>OpenPose
)を追加し、Load Image
のIMAGE
出力を接続します。Apply ControlNet
ノード(conditioning
>Apply ControlNet
)を追加します。- ここが少し複雑です。以下のように接続します。
- ポジティブプロンプト用の
CLIP Text Encode
のCONDITIONING
出力を、Apply ControlNet
のconditioning
入力に。 Load ControlNet Model
のCONTROL_NET
出力を、Apply ControlNet
のcontrol_net
入力に。OpenPosePreprocessor
のIMAGE
出力を、Apply ControlNet
のimage
入力に。
- ポジティブプロンプト用の
- 最後に、
Apply ControlNet
から出ているCONDITIONING
出力を、KSampler
のpositive
入力に接続します。 - これで準備完了です。
Queue Prompt
を実行すると、プロンプトの内容が、参照画像の人物と同じポーズで生成されます。
第6章: ComfyUIをさらに便利にする必須ツール
ComfyUIの真価は、強力な拡張機能、特に「カスタムノード」によってさらに高められます。その管理を劇的に楽にするツールが「ComfyUI Manager」です。
1. ComfyUI Manager: 最強の拡張機能マネージャー
これはComfyUIを使う上で必須と言っても過言ではない、神ツールです。カスタムノードやモデルのインストール、アップデート管理などをComfyUIの画面内から行えるようになります。
インストール方法
- コマンドプロンプトやターミナルを開きます。
cd
コマンドで、あなたのComfyUIのcustom_nodes
フォルダに移動します。
(例:cd D:\ComfyUI\ComfyUI\custom_nodes
)- 以下のコマンドを実行して、リポジトリをクローンします。
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
- ComfyUIを再起動します。
すると、右側のメニューパネルにManager
という新しいボタンが追加されます。
主な機能
- Install Custom Nodes:
Manager
ボタンをクリックすると開く画面から、人気のカスタムノードを検索し、ワンクリックでインストールできます。 - Install Missing Custom Nodes (キラー機能): 他の人が作ったワークフロー画像(PNG)を読み込んだ際、もしあなたの環境にそのワークフローで使われているカスタムノードがなければ、Managerが自動でそれを検知。「このノードが足りませんよ」と教えてくれ、インストールボタンまで表示してくれます。これのおかげで、ワークフローの再現性が飛躍的に向上します。
- Install Models: Civitaiなどのサイトと連携し、モデルファイルを直接検索・ダウンロードできます。
- Update All: ComfyUI本体や、インストール済みのすべてのカスタムノードをワンクリックで最新版にアップデートできます。
2. おすすめのカスタムノード紹介
ComfyUI Managerを導入したら、早速便利なカスタムノードを追加してみましょう。無数に存在しますが、ここでは定番かつ強力なものをいくつか紹介します。
- WAS Node Suite: テキスト処理、画像処理、パイプラインの整理など、多岐にわたる便利なノードが大量に含まれた総合パック。これ一つで出来ることが大幅に増えます。
- Impact Pack: 高度な顔面修正(ディテーラー)や、複雑なワークフローを一つのパイプラインにまとめる機能など、プロフェッショナル向けの強力な機能を提供します。
- ComfyUI’s ControlNet Auxiliary Preprocessors: ControlNetを使うための様々な前処理(Canny, Depth, NormalMapなど)ノードがセットになっています。ControlNetを本格的に使うなら必須です。
- Ultimate SD Upscale: 高品質なアップスケーリング(高解像度化)を実現するノード。生成した画像を、ディテールを保ちながら大きくしたい場合に非常に役立ちます。
これらのノードは、すべてComfyUI Managerから簡単にインストールできます。
第7章: ワークフローの共有と活用
ComfyUIのコミュニティは、ワークフローの共有によって成り立っています。素晴らしい作品を生み出すための知識や技術を、積極的に活用しましょう。
1. 画像に埋め込まれたワークフローを読み込む
何度も強調しますが、これがComfyUIの最も革命的な機能です。
オンラインで「この画像すごい!」と思ったら、それがComfyUI製である可能性が高いです。そのPNG画像をPCに保存し、ComfyUIのキャンバスにドラッグ&ドロップしてみてください。もしワークフローが埋め込まれていれば、一瞬でその画像を生成した環境があなたの目の前に再現されます。足りないカスタムノードやモデルは、ComfyUI Managerが親切に教えてくれます。
2. オンラインでワークフローを探す
ComfyUIのワークフローは、様々な場所で共有されています。
- ComfyWorkflows (https://comfyworkflows.com/): ComfyUI専用のワークフロー共有サイト。多種多様な作例と共に、ワークフローのJSONファイルや画像が投稿されています。
- Civitai (https://civitai.com/): 本来はモデル共有サイトですが、モデルの作例として投稿されている画像にComfyUIのワークフローが埋め込まれていることが非常に多いです。気に入った画像の「generation data」を確認してみましょう。
- X (旧Twitter) や Reddit: ハッシュタグ
#ComfyUI
で検索すると、世界中のユーザーが自作のワークフローを公開しています。
これらのサイトからワークフローをダウンロードし、自分の環境で再現し、そして自分なりに改造してみる。このサイクルこそが、ComfyUIを最速でマスターするための王道です。
まとめ:創造性の新たな地平へ
ComfyUIは、単なる画像生成ツールではありません。それは、Stable Diffusionという複雑で強力な技術の「仕組み」そのものを、私たちユーザーに開放してくれる学習ツールであり、創造性を無限に拡張するためのプラットフォームです。
ノードを一つずつつなぎ合わせていく作業は、まるで魔法の回路を組み立てるかのようです。最初は戸惑うかもしれませんが、プロンプトが数値に変換され、ノイズが美しい画像へと変貌していくプロセスを自分の目で追体験するうちに、あなたは画像生成AIの奥深い世界に魅了されることでしょう。
本記事では、その入り口となる基本的な知識と操作方法を解説しました。しかし、ComfyUIの可能性はここで終わりません。カスタムノードの海に飛び込み、世界中のクリエイターが共有するワークフローを解読し、あなただけの「究極の画像生成パイプライン」を構築してみてください。
A1111が提供してくれた「手軽さ」から一歩踏み出し、ComfyUIがもたらす「完全な理解と制御」を手に入れたとき、あなたの創造性は新たな地平へと到達するはずです。
さあ、ComfyUIで、誰も見たことのないアートを生み出しましょう。