「ChatGPTヘルスケア」にプライベートな健康情報を入力すべきではないと専門家が指摘 – GIGAZINE


OpenAIは健康とウェルネスのために設計されたChatGPTの専用機能「ChatGPT ヘルスケア」を2026年1月7日に発表しました。ユーザーが安全かつパーソナライズされた環境で健康に関する質問を行えるよう設計されているとのことですが、健康関連の相談は非常にプライバシーに関わるものであり、AIに情報を渡すのは慎重に検討すべきだと専門家が警告しています。


OpenAIが公開した報告書「AI as a Healthcare Ally」によると、世界中のChatGPTのメッセージのうち5%以上が健康に関連しているとのことで、医療従事者の間でもAIの導入が進んでいます。ChatGPTヘルスケアは医療記録やウェルネスアプリをChatGPTに接続することで、健康に関する質問をした際に個人のデータに基づいた具体的な回答を提示してもらうことができます。


医療記録やウェルネスアプリのデータを連携することで、身長や体重、年齢、食生活など、非常にプライベートな内容をChatGPTに提供することになります。また、メンタルヘルスの相談は「人に話すのが恥ずかしい」などの理由でAIが選ばれることもあるため、情報の機密性が求められます。ChatGPTヘルスケアでは、データの暗号化や専用設計、ユーザー自身によるデータ管理機能などが用意されています。また、健康に関する会話や接続アプリのデータは基盤モデルの学習には使用しないと説明されており、OpenAIはプライバシー保護を強調しています。

しかし複数の専門家は、データ保護を企業が約束しているとしてもそれを信頼して重要なプライバシーである健康情報をChatGPTに提供するのは慎重になるべきだと警告しています。




ソース元はコチラ

この記事は役に立ちましたか?

もし参考になりましたら、下記のボタンで教えてください。

関連記事