FramePackに高速化ライブラリをインストールする

動画生成

FramePackは、HunyuanVideoモデルをベースに開発された次世代の動画生成フレームワークで、低VRAM環境でも一貫性のある長尺動画を生成できます。ただし、動画生成には相応の処理時間がかかるため、効率的に動作させるための高速化ライブラリの導入方法を紹介します。

実行環境の確認

FramePackは、Windows向けのワンクリックパッケージとして提供されているポータブル環境です。

framepack_cu126_torch26\system\pythonフォルダを開きます。アドレスバーに「cmd」と入力してEnterを押すとコマンドプロンプトが起動します。

Pythonのバージョンを確認

python --version

インストールしているパッケージを確認

python -m pip list

現在の環境は以下のとおりです。

  • Python 3.10
  • PyTorch 2.6.0
  • CUDA 12.6

ライブラリについて

インストール可能な高速化ライブラリには以下の3種類があります。

  • xFormers
  • FlashAttention
  • SageAttention

これらはすべて同時にインストール可能ですが、SageAttentionが優先的に使用されるため、xFormersやFlashAttentionは利用されない可能性があります。併用による効果は不明のため、導入はお好みで判断してください。

モード推論時間(1秒動画)
デフォルト07:10
xFormers05:59
SageAttention04:56
RTX 3060 12GB TeaCacheオン

SageAttentionの導入により、デフォルトに比べ約30%の高速化が確認できました。FlashAttentionは、速度・品質の両面でSageAttentionより劣るようなので、単体での使用はしなくてよいかと思います。

ライブラリのインストール

xFormers

xformersのインストール

python -m pip install xformers==0.0.29.post3 --index-url https://download.pytorch.org/whl/cu126

インストール後、FramePackを起動すると「Tritonが見つからず一部の最適化が有効になりません」と表示されますが問題なく動作します。インストールしたい場合は、SageAttentionのTritonのインストールをご覧ください。

FlashAttention

flash_attn ビルド済みホイール(非公式)をインストール

python -m pip install https://huggingface.co/lldacing/flash-attention-windows-wheel/resolve/main/flash_attn-2.7.4%2Bcu126torch2.6.0cxx11abiFALSE-cp310-cp310-win_amd64.whl

SageAttention

SageAttentionを使用するには、Tritonの導入が必要です。

python_3.10.11_include_libs.zipをダウンロードして解凍します。中にある「include」と「libs」の2つのフォルダをframepack_cu126_torch26\system\pythonフォルダ内にコピーします。

triton-windowsのインストール

python -m pip install triton-windows==3.2.0.post18

sageattention ビルド済みホイール(非公式)をインストール

python -m pip install https://github.com/woct0rdho/SageAttention/releases/download/v2.1.1-windows/sageattention-2.1.1+cu126torch2.6.0-cp310-cp310-win_amd64.whl

アンインストール方法

不具合などが発生した場合は、パッケージをアンインストールしてください。

python -m pip uninstall sageattention

生成結果

SageAttentionを導入した状態で、5秒間の動画を生成しました。構図や品質をあまり損なうことなく、推論時間を短縮できました。

圧縮済み
タイトルとURLをコピーしました