ディープフェイクX線画像が専門医を翻弄
2026年3月25日 (水)
- •初期の診断評価において、放射線科医の59%がAI生成による合成X線画像を見抜くことができなかった
- •AI生成画像の存在を事前に警告された後でも、臨床医の識別精度は75%にとどまった
- •マルチモーダルAIモデルもディープフェイクの特定に苦戦し、その精度は57%から85%と大きなばらつきを見せた
ディープフェイク技術がついに臨床現場に浸入し、その衝撃的な研究結果が明らかになった。医学誌『Radiology』に掲載された研究によると、専門の放射線科医であっても、本物の医用画像とAIが生成した合成X線画像を判別することに極めて苦慮しているという。研究チームは単純なプロンプトを用いてChatGPTに特定の部位や疾患を模したレントゲン画像の作成を指示したが、生成された画像は驚くほど精巧であり、通常の診断業務において臨床医がこれらを偽物と見抜けない確率は約60%に達した。
調査に参加した17名の放射線科医に対し、合成データ特有の異常を探すよう明示的に警告した場合でも、その識別精度は75%にとどまった。この結果は、長年のレジデント研修を経て鍛えられた専門医の目であっても、高度な生成モデルに対する確実な防御策にはなり得ないことを示唆している。こうした画像が極めて容易に生成できる一方で、その識別が困難を極めるという事実は、デジタル医療記録の完全性に対する信頼を揺るがしかねない深刻な懸念材料である。
さらに、AIモデル自身もまた自らの成果物を見分けるのが苦手であるという再帰的な課題も浮き彫りになった。テキストと視覚データの両方を同時に処理する4種類のマルチモーダルモデルを用いた検証では、検出精度は57%から85%と不安定な結果に終わっている。生成AIツールがより身近になるにつれ、医療界はAIによる診断の恩恵を享受しつつ、臨床判断の根拠となるデータの信頼性をいかに守るかという二重の課題に直面している。