児童の性的に露骨なAIディープフェイクの膨大な量により、米国の法執行機関が苦しんでいる本物の子供と偽物の子供を区別することが困難になっていると検察と安全団体は警告した。 彼らは、画像があまりにも本物そっくりであるため、実際の子供たちが虐待されたかどうかを知ることが困難になっているとガーディアン紙が報じた .
こちらもお読みください: ChatGPT を利用したテディベアのポーが子供たちに就寝時の物語を読み聞かせる
ミネソタ州に本拠を置く児童安全非営利団体「ゼロ・アビューズ・プロジェクト」の上級弁護士、クリスティーナ・コロボフ氏は、同団体がAIを使って作成された、性的虐待を受けていない本物の子どもの画像の報告に気づき始めていると語る。 「しかし今、彼らの顔は虐待された子供の顔になっています」と彼女は言う。
司法省検察官、AIのせいで「私たちは溺れている」と発言
によると、コロボフ氏は「ビデオや画像の中の寝具や背景、加害者やその元となったシリーズを認識することがあるが、今はそこに別の子供の顔が貼り付けられている」と語った 。
AI モデルは、現実の写真に似た写真やビデオを 1 日に何千枚も大量に作成することができます。 報告書によると、これにより、捕食者がこの技術を利用してダークウェブや主流のインターネット上で不快なコンテンツを通信することが容易になったという。
当局にとって、それは悪夢となった。 「法執行機関の観点から見ると、児童に対する犯罪は最もリソースが不足している分野の1つであり、AIによるコンテンツが爆発的に増加するだろう」と米国司法省(DoJ)の検察官は述べ、さらに次のように付け加えた。
「私たちはすでにこのことに溺れているだけです。」
米国国立行方不明児童搾取センター ( NCMEC ) は、2023 年のオンライン児童虐待の報告数は 12% 増加して 3,620 万件になったと発表しています。 報告のほとんどは、性的虐待を受けた子どもたちの現実の写真やビデオの流通に関するものだったが、同センターには、子どもの性的搾取に関わるAIディープフェイク画像やビデオに関する4,700件の報告も寄せられた。
NCMECによると、捕食者がAIを使用する最も一般的な方法には、既存のオンライン画像を編集して明示的にすることが含まれるという。 犯罪者はまた、虐待の対象となる子供たちを募集する方法についてグラフィックな指示を与える生成型人工知能チャットボットも活用しています。
現在の法律は AI ディープフェイクに関しては十分ではありません
何が犯罪とみなされるかにはギャップがあるようです。 多くの法域では、子供を性的対象とする画像の所持は犯罪となりますが、AI が生成した画像を組み込むための法律はまだ進んでいません。
司法省の検察官は、「連邦制度で事件を告発する場合、AIによって訴追できる内容は変わらないが、多くの州ではそれが本物の子供であることを証明できなければならない」と述べた。 検察官はこう付け加えた。
「画像の正当性についての屁理屈は裁判で問題を引き起こすことになります。 私が弁護人なら、まさにそう主張するだろう。」
たとえ法律が制定されても、犯罪者を逮捕するには実現技術が必要であり、現状では大きな差があります。 児童安全団体は、警察署に要請が殺到する可能性があると警告した。
こちらもお読みください: 国連事務総長、AI が核戦争の可能性を高めると警告
オンライン上でのフットプリント を増加し始めました。
NCMECは、搾取的なコンテンツの生成と拡散を防ぐためにAI企業が十分な措置を講じていないとして非難している。 昨年、自発的に同センターに報告書を提出したAI企業はわずか5社だった。 これに対し、ソーシャルメディアプラットフォームの70%がレポートを共有したという。