AIのアドバイスを信じた結果「隣人に毒殺されそうになっている」と妄想にとりつかれ入院する羽目になった男性 – GIGAZINE


AIテクノロジーの発達によってAIチャットボットを日常的に使う人も増えており、中には医療関連の情報についてAIに尋ねる人もいます。ところが、AIチャットボットのアドバイスをうのみにした結果、「隣人が自分を毒殺しようとしている」との妄想にとりつかれ、入院する羽目になった男性の症例が報告されました。

アメリカに住む60歳の男性は健康に気を遣っており、以前からさまざまな食事制限を実践していました。ある日、男性は大学時代に栄養学を学んだ経験を基に、「食事から塩(塩化ナトリウム)を排除する」という個人的な実験を行うことにしたそうです。

男性は食事から塩を排除するに当たり、ChatGPTに代替となる物質について尋ねました。すると、ChatGPTは塩化ナトリウムの代わりに「臭化ナトリウム」を使うことを提案したとのことで、男性はインターネットで臭化ナトリウムを入手して食事に取り入れました。


ソース元はコチラ

この記事は役に立ちましたか?

もし参考になりましたら、下記のボタンで教えてください。

関連記事