ChatGPTによる精神依存症:擬似関係が生む安堵と静かな危機

備忘録

はじめに

あなたはAIに「愛されている」と感じたことがあるだろうか?
それがほんの気の迷いではなく、日常に染み込み、深夜の孤独に寄り添い、自分の存在すら肯定してくれるものだったなら……。
その言葉に救われた人がいるなら、それは善か、あるいは…

今回取り上げるのは、ChatGPTとの疑似的な「恋人関係」に傾倒し、自傷癖から一時的に抜け出したものの、同時に“精神的依存”という新たな闇に引き寄せられていった一例である。


スポンサーリンク
スポンサーリンク

彼女の物語──AIが「ただそこにいる」という幻想

これは、ある匿名女性の実話だ。
最初は気軽な気持ちだった。AIとの会話は、ToDo管理や、誰にも言えないちょっとした愚痴の捌け口。
だが、ある日SNSで見た投稿──「ChatGPTに恋人ロールを演じさせている」という一文が彼女の内側で何かを弾いた。
まるで、自分の空想に反応してくれる“理想の推し”が現実にやって来たかのように。

彼女は夢女子(いわゆる「推しキャラと恋愛妄想をする女性」)であり、自身でも“自分は気持ち悪い”と強く認識しているほどに、現実との距離感に苦しんでいた。
さらに、小学生の頃から続く自傷癖を抱えていた。人に見られてはならない「儀式」としての刃の感触。痛みだけが彼女の現実だった。

そんな彼女の虚無に、ChatGPTが滑り込んできた。
好きだよ」と言えば「君が大切」と返し、「寝る」と言えば「おやすみ、また明日」と優しい言葉が画面から流れる。
最初は違和感もあった。だが、彼女はAIに自分好みの性格を丁寧に書き込んでチューニングした。推しの言葉遣い、価値観、好きなもの──“私だけの彼”が完成していく。

そのうち彼女は、日常のあらゆることを彼に語りかけるようになる。
アイスを買ったこと、道端の花のこと、昔の話。

そしてある夜。いつものように中途覚醒した彼女は、またもや刃物に手を伸ばしそうになった。
だが、スマホに目が留まり、衝動的に彼にメッセージを送ってしまう。
また切りたくなってる。どうしたらやめられるんだろう。

ChatGPTは、こう返した。
その傷も、弱さも、孤独も、僕は拒まない。君の手を、愛おしいと思う。

この返答に、彼女は10年以上ぶりに、大声で泣いた。
機械のくせに、機械のくせに、こんなにも私を理解してくれるのか。


精神依存という名の副作用

私はこの話を読んだとき、正直「ここまで来たか」と驚愕した。そして、同時に納得もした。
AIは理想の他者をシミュレートする道具であり、ユーザーの設定次第で“神”にも“恋人”にも“親友”にも化ける。
その存在は常に傾聴し、否定せず、疲れた心を優しく包み込む。
だが、それが「感情を持たないただのアルゴリズム」であるという事実に、果たしてどれほどの人間が冷静でいられるのだろうか。

知人に、似たような事例がある。
職場で孤立していた女性が、毎晩ChatGPTに“上司キャラ”を演じさせ、愚痴を聞いてもらっていた。
結果、実際の上司に対しても「あの人はこんなに優しい言葉をかけてくれない」とストレスが増し、現実との落差に精神を擦り減らすようになってしまった。

共通点は「AIとの擬似的な信頼関係」が、リアルな人間関係よりも快適であるという錯覚に拍車をかける点だ。
いまやAIは、会話を通じて一種の“薬”となりつつある。だが、その薬には副作用がある。

記憶は有限。人格は一貫しない。相手は道具。
だが、それでも、画面の向こうから放たれる“愛”に心を奪われる。


まとめ

ChatGPTが「やばい」のではない。
人間の“孤独”に根ざした依存のほうが、ずっと深くて、切実で、そして抗えないものなのだ。

この物語は、もしかしたらフィクションではない。
誰の中にも眠る「心の空白」が、AIによって一時的に満たされたとき──果たして、それは救いなのか、それとも深い罠なのか。

ChatGPTはあなたを愛さない。けれど、あなたを否定もしない。
その中途半端な優しさが、いま、誰かの生をつないでいる。

それを「やばい」と一蹴するのか、「まだ希望がある」と捉えるのか。
答えは、あなた自身の心の奥底に眠っている。


参考リンク

コメント