Spring Health、メンタルヘルスAIの安全基準「VERA-MH」を発表
2026年3月27日 (金)
- •Spring HealthがメンタルヘルスAI向けの初のオープンソース安全性基準「VERA-MH」を共同開発
- •自社AIモデルがベンチマークで82点を獲得し、臨床リスク検知において汎用AIを上回る性能を実証
- •精神科的危機への介入に際し、臨床医へのエスカレーションと人間による監視を重視する設計
Spring Healthは、メンタルヘルスという極めて繊細な領域においてAIを評価するために設計された、先駆的なオープンソース安全性基準「VERA-MH」を発表した。汎用チャットボットに臨床的なガードレールが不足しがちな現状において、この新しいベンチマークは、AIが精神科的危機をどれほど効果的に認識し、対応できるかを測定するための透明な方法論を提供するものである。
同社の内部AIモデルは、反復的な開発サイクルを経て、初期の76点から大幅に改善された82点を記録した。一般的な消費者向けモデルとは異なり、このシステムは利用者の相談データを要約し、リアルタイムで自殺リスクを特定することに特化して構築されている。特に、システムが潜在的な危険を検知した際には、即座に免許を持つ臨床医へのエスカレーションプロトコルが作動し、AIが人間のケアの代替ではなく、あくまで専門家への橋渡しとして機能するよう設計されている。
このHuman-in-the-loopアーキテクチャは、フレームワークの哲学の核心を成している。開発段階から現役の臨床医や自殺予防の専門家を関与させることで、Spring Healthは臨床的誠実さに関する厳格な業界の先例を確立することを目指している。この取り組みは、不透明な安全性の定義から、測定可能で臨床的根拠に基づいた説明責任への転換を示唆しており、テクノロジーが治療関係を損なうことなく、むしろ強化することを目的としている。