医療AI、診断の不確実性に直面し苦戦
- •マサチューセッツ総合ブリガム病院の研究で、21種類のLLMが複雑な鑑別診断において高い課題を抱えていることが判明した。
- •モデルは最終的な診断名の特定には90%以上の精度を示したが、初期の推論プロセスでは大幅に失敗した。
- •研究者は、現在の市販LLMは監視なしでの臨床利用には適していないと警告している。
生成AIがヘルスケア分野へ急速に浸透する中、スピードと正確性が必ずしも両立しないという厳しい現実が突きつけられた。マサチューセッツ総合ブリガム病院のMESHインキュベーターによる研究は、21種類の汎用大規模言語モデル(LLM)が複雑な臨床推論をどの程度処理できるかを厳格に評価したものである。JAMAネットワーク・オープン誌に掲載されたこの研究結果は、最終的な診断名を出す能力と、患者ケアの初期段階における複雑な文脈を理解する能力との間に、依然として大きな隔たりがあることを浮き彫りにした。
医師が医学的な判断を下す際に行う「鑑別診断」とは、患者の症状に基づき可能性のある疾患をすべてリストアップし、不確実性を管理しながら証拠を集める極めて重要なプロセスである。検証対象となったGPT-5やGemini 3.0 Flashといった最新モデルは、臨床像が確定した後の最終診断には高い精度を示した。しかし、適切な鑑別リストを生成する段階では、80%以上の確率で失敗するという結果となった。
研究者らは、これらのAIが単なる「答えを出すエンジン」として最適化されすぎており、人間の医師のように不確実性を維持しながら時間をかけて証拠を積み上げる能力に欠けていると分析する。決定的な検査結果が得られない未確定の症例において、AIは多様な可能性を提示できず、安易に単一の回答へ収束してしまう傾向がある。こうした情報の処理手法の違いは、AIのアーキテクチャが臨床現場で求められる懐疑的かつ反復的な推論プロセスと根本的に整合していないことを示唆している。
この研究のために開発された「PrIME-LLM」という新たな指標は、5つの臨床推論領域におけるモデルの精度を定量化するために用いられた。臨床文脈を保持した連続的な症例データを与えたにもかかわらず、検査値や画像データといった補助的な情報を追加しても、モデルの推論能力の限界は解消されなかった。単にデータ量を増やすだけでは、診断における微妙なニュアンスの欠如というAIの根本的な課題は解決できないのである。
MESHインキュベーターのリーダー陣は、LLMには将来性があるものの、病院での監視なしでの運用は現時点では到底不可能であると強調する。本研究は、適切な検証なしにAIを臨床ワークフローへ導入することへの警鐘といえるだろう。研究者たちの目標は、人間の専門知識を置き換えるのではなく、それを補完するツールを構築することである。診断プロセスの曖昧さを扱えない現状のモデルを過信することは、患者の容態変化を見落とすという危険なリスクを内包している。