AmazonはAIの学習に使うデータセットから児童性的虐待コンテンツ(CSAM)を検知するシステムを構築しており、検知し次第、全米行方不明・被搾取児童センター(NCMEC)に通報しています。ところが、これらCSAMの情報源をAmazonが把握していないため、NCMECが困っていることが報じられました。
Amazon Found Child Sex Abuse In AI Training Data – Bloomberg
https://www.bloomberg.com/news/features/2026-01-29/amazon-found-child-sex-abuse-in-ai-training-data
AmazonはAI学習を含めたあらゆるサービスにおいてCSAMの防止に取り組んでおり、機械学習やキーワードフィルター、自動検出ツール、人間による目視確認を活用してCSAMを積極的に排除しています。2024年だけでも合計6万4195件の報告書をNCMECに提出したとのことです。
Amazon’s efforts to combat child sexual abuse material
https://www.aboutamazon.com/news/policy-news-views/amazon-csam-transparency-report-2024
2026年、Bloombergの取材に応じたNCMECは、「2025年に報告されたAI関連のCSAMの件数は100万件以上で、そのうちの大部分がAmazonからだった」と伝えています。その上で、「Amazon以外の企業はほんの数件に過ぎず、顕著な差が見られる」「Amazonはデータの出どころについて詳細を共有しておらず、法執行機関による加害者の特定や被害者保護を妨げる可能性がある」と指摘したといいます。
NCMEC傘下のホットライン「CyberTipline」のファロン・マクナルティ事務局長などによると、データの出どころを報告する義務はAmazonにはないものの、他社はより詳細な情報を共有しているという違いがあるとのこと。NCMECにとっても出どころが分からなければ対処のしようがないため、Amazonに対して「そのような報告では何もできない」と伝えているそうで、マクナルティ氏は「単に何かを発見したと報告するだけで実用的な情報を提供しないことは、児童保護の分野全体にとって何の役にも立たない」と話しました。
Amazonの広報担当者によると、トレーニングデータは外部ソースから取得したものであり、Amazonは捜査当局の調査に役立つような詳細な情報を把握しているわけではないとのことです。また「2026年1月時点で、自社モデルがCSAMを生成した事例は認識していない」とも付け加えました。
2025年にNCMECへ報告されたAI関連のCSAM件数は100万件を超えましたが、2024年は6万7000件で、2023年は4700件にすぎず、年々異例なまでに増加している傾向にあるそうです。このうち大部分がAmazonからのものだったということは、裏を返せばAmazonの検知システムが他社より優れているという見方もできますが、NCMECは「年間を通じてこれほど大量の報告が寄せられる状況は、データの出どころや導入されている安全対策について多くの疑問を投げかけるものである」と考えています。
Amazonによると、誤ってCSAMを見逃すことを避けるため閾値を低く設定しており、その結果NCMECへの報告件数が多くなっているとのことです。
なお、CSAM報告のうちAI関連のものは全体のごく一部に過ぎず、プライベートメッセージで送信されたものやSNSに投稿されたものなどを含めると合計で2000万件に上るそうです。最も多かった検知場所はFacebook、Instagram、WhatsAppといったMeta関連のサービスでした。ただし、これら報告の全てが必ずしもCSAMを含んでいると認定されるとは限らないそうです。
この記事のタイトルとURLをコピーする
ソース元はコチラ
この記事は役に立ちましたか?
もし参考になりましたら、下記のボタンで教えてください。



