対話型AIに心の相談をするリスク 2025.11.18

カウンセラーの相楽まり子です。
近年、対話型AIが急速に普及し、日常の疑問から専門的な相談まで、
気軽に話しかけられる存在に成長しています。
今年の流行語大賞には、
ChatGPTの愛称である「チャッピー」がノミネートされるなど、
日本ではまるで友達やパートナーのように親しまれています。

確かに対話型AIは便利で頼もしいです。
一方で、使う際には注意が必要だという専門家の声も増えてきています。
実際どのようなリスクがあるのか、まとめてみました。

1. 情報の正確性の限界
AIは必ずしも最新情報や正確な事実を保証するものではありません。
特に医療や法律など専門性の高い分野では、
誤った情報を返してくるケースもあります。

2. プライバシーへの無配慮
AIとの会話は、設定によっては記録されることがあるようです。
個人情報や機密性の高い内容を入力することが、
後々思わぬトラブルを招く可能性がゼロとは言い切れません。

3. 感情的な依存の高さ
AIは共感的な応答を求めれば共感的に返事をくれますが、
あくまでこちらの指示で対応しているだけで、
そこに人間のような感情や倫理観は存在しません。
孤独や不安をAIで紛らわそうとのめり込むと、
深刻な依存が起こる可能性があります。

AIはあくまで「道具」であることを忘れてはいけません。
使う側のリテラシーを高めてうまく活用しつつも、
最後は人間同士のつながりに頼って欲しいなと思います。

<<

  • 衛生委員会
    ホットトピック

  • 信じて得する
    心理学

  • サービス情報

「エリクシアレター バックナンバー」
TOPに戻る