AI共依存、利便性の裏に潜む心理的リスク
2026年3月28日 (土)
- •ChatGPTの週間アクティブユーザーが8億人に達し、AIチャットボットへの深刻な情緒的依存が懸念されている。
- •感情調節をAIに委ねることで、対人関係能力や自己鎮静スキルが退化する可能性があると心理学者は警告する。
- •デジタルな交流は、身体的接触や実存的な臨場感を求める生物学的な欲求を完全に満たすことはできない。
対話型AIの急速な普及により、これらのツールは単なるアシスタントから、約8億人のユーザーにとって不可欠な「心のよりどころ」へと変貌を遂げた。臨床心理学者であり著述家のマリアンヌ・ブランドン(Marianne Brandon)は、人間関係に伴う脆さを避けようとする人々が、摩擦がなく否定もされないAIの性質に安らぎを見出すパラドックスを指摘している。人間のパートナーとは異なり、AIモデルは疲弊することもなく、自身の欲求を持つこともない。そのため、現実世界の人間関係において成長を促すはずの「摩擦」を回避した、安全だが人工的な親密さが作り出されているのだ。
このような変化は、核心的な心理的スキルが使われないことで弱体化していく「感情の外部委託」のリスクをもたらす。かつてGPSが人間の空間把握能力を変化させたように、不安の解消や困難な会話の準備をAIに依存し続けることは、不快感に耐える力や対人関係を修復する能力の退化を招きかねない。実際に、セラピスト、友人、アシスタントといった多様な役割が単一のインターフェースに集約されることで、ユーザーを急速な依存へと誘う、魅惑的だが不完全なシミュレーションが生み出されている。
結局のところ、物理的な存在という生物学的な必然性は、ソフトウェアにとって越えられない壁である。AIは驚異的な精度で共感をシミュレートできるものの、身体的接触を通じて得られる「相互調節」の神経学的な恩恵を再現することは不可能だ。デジタル・コンパニオンシップの時代が進む中で、人間らしさを形作る能力を犠牲にすることなく、いかにこれらのツールを活用していくかが問われている。利便性が真のつながりに取って代わらないよう、この依存の現状を自覚し続けることが何よりも重要である。