Cloudflare、超大規模言語モデル向けインフラを最適化
- •CloudflareがWorkers AIを最適化し、Kimi K2.5のような超大規模モデルを効率的に運用
- •Prefill-decode disaggregation(プリフィル・デコード分離)の導入により、計算負荷とメモリ負荷を分離
- •投機的デコーディングと高度なKV-cache管理でトークン遅延を3倍高速化
1兆パラメータを超える大規模言語モデルを稼働させるには、強力なハードウェア以上の工夫が必要となる。ソフトウェアとシリコンの高度なオーケストレーションが欠かせないのだ。特に、AIエージェントによる継続的なツール利用や長いコンテキストウィンドウへの対応が求められる現在、課題は単なるテキスト生成から、膨大かつ動的なメモリ状態の管理へとシフトしている。
Cloudflareは、GPUリソースの割り当てを再考することで、この課題に対処している。中核となるのが「プリフィル・デコード分離」という手法だ。テキスト生成は入力プロンプトを処理する「プリフィル」と、出力を生成する「デコード」の2段階に分かれる。両者はGPUにかかる負荷の特性が異なるため、分離して最適化することでハードウェアの稼働効率を飛躍的に向上させている。
メモリ管理における難関は、KV-cacheの扱いだ。モデルが複数のGPUにまたがる場合、チップ間でメモリ状態を高速かつ一貫して保持する必要がある。Cloudflareは専用の転送エンジンと保存プロトコルを実装し、VRAM外のストレージ層を活用することで、ノード間通信によるパフォーマンス低下を抑える統一されたメモリ空間を実現した。
さらに、スループット向上のため「投機的デコーディング」を導入している。これは軽量なモデルが一時的な予測を行い、大規模モデルがそれを検証する手法だ。特にツール呼び出しのような予測可能なパターンが多いタスクで、計算の重複を大幅に削減できる。
独自の推論エンジンである「Infire」は、汎用的なソリューションよりも高い効率を叩き出す。メモリオブヘッドの最小化とコールドスタートの改善により、より一般的なハードウェア構成での稼働を可能にした。これは、AIの未来が単にモデルを大きくすることではなく、地球規模の効率的な運用を支える地道なエンジニアリングにあることを物語っている。