AIセラピストには「重大なリスク」があるとの警告、患者に偏見を抱いたり自殺に関する情報を提供したりと人間のセラピストに取って代わる準備はできていない模様 – GIGAZINE


チャットAIの普及により、AIを心理療法(セラピー)に活用する事例が増加しています。しかし、そんなAIセラピストには精神疾患を持つ患者を差別したり、危険な反応を示したりする可能性があることが明らかになりました。

[2504.18412] Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers
https://arxiv.org/abs/2504.18412

スタンフォード大学の研究者が、大規模言語モデル(LLM)を搭載したAIセラピスト(心理療法用チャットAI)を調査しました。調査では、5つのAIセラピストを「優れた人間のセラピスト」に関するガイドラインに基づき評価しています。

スタンフォード大学教育大学院の助教であり、今回の調査の上級著者でもあるニック・ハーバー氏は、「チャットAIは仲間、相談相手、セラピストとして使われているものの、重大なリスクが存在することが明らかになりました」と指摘しています。


ソース元はコチラ

この記事は役に立ちましたか?

もし参考になりましたら、下記のボタンで教えてください。

関連記事