AIが担う情緒的代理の心理学
- •LLMを情緒的な聞き手やカウンセラーとして扱うユーザーが増加している。
- •AIを介したコミュニケーションは「偽りの自己」を形成し、人間本来の脆弱性を阻害するリスクがある。
- •専門家はチャットボットを心理療法や専門的ケアの代替手段として依存することに警鐘を鳴らしている。
人間関係のあり方が、AIの進出によって根底から揺らいでいる。臨床の現場では、ChatGPTのようなツールを単なる情報収集手段ではなく、自身の複雑な感情を整理するための「情緒的な相棒」として扱う人々が増加している。この行動は、親密さの本質や、他者との関わりを通じて困難を乗り越えるという発達上の必要性について、切実な問いを投げかけている。
この変化の中心には、心理学で用いられる「偽りの自己(False Self)」という概念がある。これは社会的な期待に応えるために私たちが身につける仮面を指すが、近年では謝罪や別れの挨拶といった繊細なコミュニケーションをAIに代筆させるケースが目立つ。AIが生成する回答はしばしば洗練されているが、利用者は自身の感情と向き合う機会を失い、苦悩を通じて得られるはずの自己発見というプロセスを回避してしまうのだ。
特に学生の間では、対人トラブルから学業への不安まで、あらゆる悩みをAIに委ねる傾向が顕著である。チャットボットを「副セラピスト」として利用し、恋人との仲裁や危機的な状況での慰めを求める例も少なくない。これらのツールは一時的な安らぎを与えるが、現実世界での人間関係という足場を崩す障壁となりかねない。
私たちが問うべきは、AIというシステムが人間同士の交流を促進する「架け橋」なのか、それとも阻害する「障壁」なのかという点である。AIが洗練された空虚な模造品として、予測不能で厄介な現実の人間関係を代替してしまう危険性は看過できない。難しい感情を表現する練習にAIを用いることと、人間に直接伝える行為を完全に避けるためにAIを利用することの間には、決定的な違いがある。
今後は、AIを否定するのではなく、目的を持って統合していく姿勢が教育者やセラピストに求められる。AIを支援を求める際の心理的ハードルを下げたり、思考を整理したりするための「通過儀礼的ツール」として活用するモデルを模索すべきだ。技術とは、本来、孤立を深めるための目的地ではなく、より深い人間関係や回復力を育むための踏み台であるべきである。