ClawBenchが暴いたAIエージェントのWeb作業の現実
- •ClawBenchは144のライブWebサイト上の153のタスクでAIを評価
- •Claude Sonnet 4.6などの最先端モデルでもタスク完了率はわずか33%にとどまる
- •本フレームワークはステップごとの詳細な診断データを提供し、AIの推論失敗箇所を特定する
AI開発は重要な転換期を迎えている。長年、AIの評価基準はドキュメントの要約やコード生成の巧拙に依存してきたが、現在はインターネット上で複雑なタスクを完遂する「エージェント」の能力に焦点が移っている。ClawBenchは、静的なテストから脱却し、予測不能な実際のWeb環境での性能を測るための不可欠なチェックポイントとして登場した。
このベンチマークは、ログイン処理や複雑なインターフェース操作、動的なWebサイトの変化への対応など、現実のWeb環境の厳しさをAIに突きつける。飛行機の予約から求人応募まで、144ものライブサイトで153のタスクを実行した結果は極めて現実的であり、Claude Sonnet 4.6のような最先端モデルであっても、完了率はわずか3分の1に過ぎなかった。
この失敗率は、単なる現世代モデルの限界ではなく、改良のための重要な診断データとなる。AIがタスク中にログイン画面やループ処理でつまずいた際、ClawBenchはセッションのリプレイやHTTP trafficのログ、モデル内部の推論過程など5層のデータを収集する。これにより、どのステップで思考プロセスが破綻したのかを詳細に分析可能だ。
AIが「チャットボット」から実務を遂行する「インスツルメンタルAI」へと進化する過程で、堅牢性とエラー追跡の重要性は急速に高まっている。研究者や学生にとって、AIの期待値と実際の信頼性のギャップを知ることは、現在進行中のAI研究において最も注目すべき事象である。
33%という成功率は、ブラウザベースの自動化が依然として初期の実験段階にあることを示唆している。モデルはテキストを読み書きする能力を身につけたが、視覚的かつインタラクティブな環境での長期的な計画策定という課題は未克服だ。ClawBenchは、業界が測定の標準を静的なデータから現実のWebという泥臭い戦場へと移すための青写真となるはずだ。