HiSparse:長大なコンテキスト向けにLLMの処理能力を向上
LMSYS
2026年4月11日 (土)
- •HiSparseは階層的なメモリ管理により、長大なコンテキストを扱うLLMのGPUメモリ制限を克服する
- •標準的な疎なアテンション手法と比較して最大3倍のスループットを実現
- •非アクティブなデータを退避させるアーキテクチャにより、大規模なリクエストの並行処理を可能にする
大規模言語モデル(LLM)のコンテキストを拡張する際、技術的な最大の障壁となるのが「メモリの壁」である。モデルが読み込む情報量が増えるにつれ、その記憶領域であるKVキャッシュが急速に肥大化し、GPUメモリを枯渇させてしまう。これにより、サーバーが処理できるリクエスト数が制限され、パフォーマンスが著しく低下するのだ。
HiSparseの研究チームはこの課題に対し、メモリを図書館システムのように扱う革新的なアプローチを導入した。アクセス頻度の低いデータを高速な「ホット」メモリから二次ストレージへ移動させる、階層型メモリ管理アーキテクチャを構築したのである。これによりGPUは、頻繁にアクセスされる重要なデータのみに集中できる。
この手法を支える核となるのが、専用の「スワップイン・カーネル」だ。システムはLRU(Least Recently Used)アルゴリズムを採用しており、最も関連性の高い情報を優先的に保持する。ホストストレージに退避したデータが必要になった際には、このカーネルが瞬時に不足分を識別して高速バッファへ引き戻す仕組みだ。
この効率的なデータのやり取りにより、システムのボトルネックであったメモリへの負荷が劇的に軽減された。その結果、高負荷環境下でのスループットは線形に近い形で向上する。ベンチマークであるGLM-5.1-FP8を用いたテストでは、過酷な条件下で最大5倍のスループット改善が確認された。
AIが書籍一冊分や巨大なコードベースをリアルタイムで解析する未来において、HiSparseのような技術はインフラの効率化と拡張性を維持するための不可欠なピースとなるだろう。リソース管理の最適化は、次世代のAI基盤を支える重要な鍵である。