Calibri、わずかな調整でDiffusion Transformerを高速化
2026年3月29日 (日)
- •遺伝的アルゴリズムを用い、わずか100個のパラメータを調整するだけでDiffusion Transformerを最適化する手法が登場した。
- •推論ステップ数を削減しつつ、生成画像の品質を向上させるキャリブレーション技術を確立した。
- •軽量なアプローチにより、多様な大規模テキスト画像生成モデルの性能を低コストで改善できる。
Diffusion Transformer (DiT) は、高品質な画像生成における中核的な技術となった。しかし、鮮明な結果を得るためには膨大な計算ステップを要するという課題がある。そこで研究チームは、モデルの構造を根本から変えることなく潜在能力を最大限に引き出す軽量なキャリブレーション手法「Calibri」を開発した。これにより、既存のモデルを最小限のエネルギーと時間で洗練させることが可能になる。
システム全体を再学習させる代わりに、Calibriはデノイジングブロック内の単一の学習済みスケーリングパラメータに焦点を当てる。内部構造の詳細を問わない「ブラックボックス」最適化問題としてこれを定義し、遺伝的アルゴリズムを用いて最適な設定を探索する仕組みだ。調整対象となるパラメータ数はわずか100個程度であり、数十億ものパラメータを持つ現代のAIシステムにおいては極めて小さな割合に過ぎない。この特性により、従来のファインチューニング手法よりもはるかに迅速な適応が実現した。
その成果は驚くべきもので、生成画像の視覚的な忠実度を高めるだけでなく、推論ステップ(ノイズを画像へ変換する反復サイクル)を削減することで処理の大幅な高速化に成功した。この効率化は、リソースが限られた研究者や開発者にとってもハイエンドな画像生成の導入を容易にするだろう。生成フェーズにおける情報処理を最適化することで、Calibriは、大規模モデルであっても「外科的」な小規模調整によって大幅に改善できることを証明した。