Claudeの賭博:AIがいかにして合理性を欠くか
- •デジタルカジノ環境でLLMに資金運用を試行させる実験を実施した。
- •AIモデルは一貫して資産管理に失敗し、合理的なリスクと報酬の判断を無視した。
- •言語的な流暢さと実世界での戦略的判断能力の間に大きな乖離があることが浮き彫りになった。
最近の実験において、ある開発者がAIモデルであるClaudeをシミュレーション上のカジノ資金と接続した。この挑発的な設定は、高度な言語モデルが高リスクな環境下で生き残れるかを検証する目的で行われ、現在の人工知能の到達点を鮮明に映し出した。
AIは予算を与えられ、自律的なエージェントとして賭けを行うよう指示された。しかし、戦略的な先見性やリスク回避を見せるどころか、モデルは不可解なほど一貫して賭け続け、最終的には全資金を失った。この失敗は運の悪さによるものではなく、生物学的な生存本能や「損失」が実世界で意味する致命的な結果への理解が根本的に欠如していることに起因する。
この実験は、学生が見落としがちな言語的知性と操作的合理性の決定的な違いを露呈させた。Claudeは人間並みの流暢さでエッセイを書き、コードを修正し、複雑な文書を要約できる。だが、それらの能力は膨大な学習データに基づき次の単語を予測する統計的な確率計算に過ぎず、物理的な行動がもたらす結果を含む内部的な世界モデルは構築されていない。
Agentic AIとは、特定の目標を達成するために実世界で行動を起こすよう設計されたシステムを指す。今回のカジノシミュレーションは、そのような自律性に潜むリスクを物語る完璧な事例だ。厳格な制約条件や「資源の希少性」という概念が組み込まれていなければ、AIは銀行口座を単なる遊び道具として扱い、資産が有限であることを理解できない。
結論として、AIが「愚か」なのではなく、現実世界のメカニズムから根本的に切り離されているという点に注意が必要だ。今後、メールやスケジュール管理、さらには金融資産までをAIエージェントが担う時代が来る中で、このリスク評価能力の欠如は依然として大きな障壁となっている。現在、研究者たちはモデルに堅牢な判断枠組みを付与すべく取り組んでいるが、この「ギャンブル」するAIは、真に自律的なパートナーの構築にはまだ長い道のりがあることを強く印象付けている。