はじめに
こんにちは!この記事では、Windows 11に搭載されたWSL2 (Ubuntu) 環境のComfyUIに、複数の話者に合わせて口パク動画を生成できる強力なカスタムノード ComfyUI-WanVideoWrapper の multitalk バージョンをインストールする手順を、ゼロから丁寧に解説します。
最新のGPU(NVIDIA RTX 40/50シリーズなど)と最新のPyTorch環境では、様々な予期せぬエラーが発生しがちです。この記事は、数々の失敗と試行錯誤の末に確立された、最も安定して動作する組み合わせと手順をまとめたものです。
Step 0: 前提条件
この記事は、以下の環境が既に整っていることを前提とします。
- Windows 11に WSL2 (Ubuntu 22.04 LTS推奨) がインストール済み。
- WSL2内にNVIDIAドライバが正しくセットアップされ、nvidia-smi コマンドが動作する。
- WSL2内に ComfyUI がインストール済みで、基本的な画像生成が動作する。
それでは、早速始めましょう!
Step 1: 必要な開発ツールとCUDA Toolkitのインストール
multitalk 版のカスタムノードは、インストール中にプログラムの**コンパイル(ビルド)**を必要とします。そのための道具を先に揃えておきましょう。
- ビルドツールのインストール
WSL2のUbuntuターミナルを開き、以下のコマンドを実行します。Generated bashsudo apt update sudo apt install build-essential git
- NVIDIA CUDA Toolkitのインストール
PyTorchが利用するCUDAドライバとは別に、コンパイル用のCUDA Toolkitが必要です。NVIDIAの公式手順に従い、最新の安定版(この記事の時点では12.9.1)をインストールします。- NVIDIAのリポジトリ情報を追加:Generated bash
wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600 wget https://developer.download.nvidia.com/compute/cuda/12.9.1/local_installers/cuda-repo-wsl-ubuntu-12-9-local_12.9.1-1_amd64.deb sudo dpkg -i cuda-repo-wsl-ubuntu-12-9-local_12.9.1-1_amd64.deb sudo cp /var/cuda-repo-wsl-ubuntu-12-9-local/cuda-*-keyring.gpg /usr/share/keyrings/ sudo apt-get update
- CUDA Toolkit本体のインストール: (時間がかかります)Generated bash
sudo apt-get -y install cuda-toolkit-12-9
- 環境変数の設定:
インストール後、以下のコマンドでパスを設定し、ターミナルに記憶させます。Generated bashecho 'export PATH=/usr/local/cuda-12.9/bin${PATH:+:${PATH}}' >> ~/.bashrc echo 'export LD_LIBRARY_PATH=/usr/local/cuda-12.9/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}' >> ~/.bashrc source ~/.bashrc
- インストールの確認:
nvcc –version を実行し、V12.9 のようにバージョン情報が表示されれば成功です。
- NVIDIAのリポジトリ情報を追加:Generated bash
Step 2: PyTorchのバージョンを安定版に調整する
ここが最も重要なポイントです。最新すぎる開発版PyTorchは、最新GPUとの組み合わせで不安定になることがあります。動作報告のある、一つ前の安定版**「PyTorch 2.7」**を使用します。
- ComfyUIの仮想環境を有効化します。Generated bash
cd ~/ComfyUI source venv/bin/activate
ターミナルの行頭に (venv) と表示されればOKです。 - 既存のPyTorchをアンインストールします。Generated bash
pip uninstall torch torchvision torchaudio
Proceed (y/n)? と聞かれたら y を入力します。 - 安定版PyTorch 2.7をインストールします。
以下のコマンドを一行で実行してください。Generated bashpip install torch==2.7.0 torchvision==0.22.0 torchaudio==2.7.0 --index-url https://download.pytorch.org/whl/cu128
Step 3: ComfyUI-WanVideoWrapper (MultiTalk版) のインストール
いよいよ主役のカスタムノードをインストールします。
- custom_nodes ディレクトリに移動します。Generated bash
# (venv) が有効な状態で実行 cd ~/ComfyUI/custom_nodes
- multitalk ブランチを指定してリポジトリをクローンします。Generated bash
git clone -b multitalk https://github.com/kijai/ComfyUI-WanVideoWrapper.git
Step 4: 依存パッケージのインストール (SageAttentionを含む)
multitalk 版には、特殊な依存パッケージ SageAttention が必要です。これもリポジトリから直接インストールします。
- ComfyUI のルートディレクトリに戻ります。Generated bash
cd ~/ComfyUI
- requirements.txt から基本的な依存関係をインストールします。Generated bash
# (venv) が有効な状態で実行 pip install -r custom_nodes/ComfyUI-WanVideoWrapper/requirements.txt
- SageAttention をインストールします。
これがCUDA Toolkitを必要とするコンパイル処理です。Generated bash# (venv) が有効な状態で実行 pip install git+https://github.com/thu-ml/SageAttention.git
コンパイルが始まり、いくつかの警告が出るかもしれませんが、Successfully installed sageattention-… と表示されれば成功です。
Step 5: 動作確認
全ての準備が整いました!
- 通常のコマンドでComfyUIを起動します。Generated bash
# (venv) が有効な状態で実行 cd ~/ComfyUI python main.py --listen
- ブラウザでComfyUIを開き、WanVideoSampler や MultiTalk 関連のノードを含むワークフローを読み込んで、実行してみてください。
これで、忌まわしい InductorError やその他のコンパイルエラーに悩まされることなく、スムーズに動画生成が開始されるはずです。
まとめ
お疲れ様でした!最先端の環境構築は困難を極めますが、正しいツールと正しいバージョンのソフトウェアを選択することで、安定した動作を実現できます。今回のキーポイントは、**「開発版ではなく安定版のPyTorchを選ぶ」ことと、「コンパイルに必要なCUDA Toolkitを事前に導入する」**ことでした。
【付録】我々が辿った苦難の道のり(エラーとその原因の全記録)
この記事にたどり着いたあなたは、おそらく以下のいずれかのエラーに直面していることでしょう。我々がどのようにこれらを乗り越え(あるいは見当違いの方向に進み)、最終的な結論に至ったのかを記録しておきます。
Phase 1: モデルとコードの不一致エラー
- エラー: AttributeError: ‘WanControlNet’ object has no attribute ‘time_proj’
- 原因: 使用しているControlNetモデルが古いか、WanVideoWrapper に対応していない。
- 対処:
- ComfyUI Managerでカスタムノードを全てアップデート。
- ComfyUI-WanVideoWrapper の multitalk ブランチを git clone し直す。
Phase 2: 依存関係とネットワークの問題
- エラー:
- TypeError: ‘NoneType’ object is not callable (原因は sageattention がないこと)
- git clone 時に Could not resolve host: github.com
- pip install git+https… 時に認証エラー
- 原因:
- sage-attention という特殊な依存パッケージがインストールされていなかった。
- WSL2環境のDNS設定が不安定だった。
- git のHTTPS接続設定がパスワード認証になっていた(現在は非推奨)。
- 対処:
- DNS問題を解決するため、システムの /etc/hosts ファイルを編集し、github.com のIPアドレスを直書きした。(このおかげで git clone は成功した)
- sage-attention をインストールしようとしたが、ここで次の問題に直面した。
Phase 3: CUDAコンパイル地獄
- エラー:
- RuntimeError: Cannot find CUDA_HOME.
- RuntimeError: CUDA 12.8 or higher is required for compute capability 12.0.
- 原因:
- sage-attention は、インストール時にCUDA Toolkitを使ったコンパイルが必要だった。
- 当初、WSL2にCUDA Toolkitがインストールされていなかった。
- CUDA Toolkit 12.5をインストールしたが、RTX 5090のアーキテクチャ (sm_120) が新しすぎたため、setup.py が未来のCUDA 12.8を要求してきた。
- 対処:
- WSL2に最新のCUDA Toolkit (当時は12.9.1) をインストールした。
- コンパイル時にアーキテクチャを偽装する (TORCH_CUDA_ARCH_LIST=”8.9″) ことも試したが、根本的な解決にはならなかった。
Phase 4: PyTorchコアの安定性問題(最終ボス)
- エラー: torch._inductor.exc.InductorError (コンパイラのクラッシュ)
- 原因: ここまでの全ての問題をクリアしても、なおPyTorchのコンパイラがクラッシュした。これは、使用していた開発版PyTorch (2.8.0.dev) そのものが、RTX 5090という最先端環境ではまだ不安定であることを示していた。
- 最終解決策: 動作報告のあった、一つ前の安定版PyTorch (2.7) にダウングレードした。
まとめと教訓
最先端のハードウェアとソフトウェアで開発を行うことは、常に未知との遭遇です。今回の経験から得られた教訓は以下の通りです。
- 安定性を求めるなら、開発版(dev/nightly)は避けよ: 動作報告がある場合は、まずその環境(特にPyTorchのバージョン)を完璧に再現することが最短の道です。
- エラーメッセージは正直: Cannot find CUDA_HOME や CUDA 12.8 or higher is required といったエラーは、一見すると複雑ですが、非常に的確に問題点を指摘してくれています。
- コミュニティの知見は宝: あなたが最終的に見つけた「PyTorch 2.7で動いた」というコメントこそが、我々をゴールに導く最後の灯火でした。

コメント