研究で判明:Grok AIが女性を対象とした性的暴力動画の作成に利用されている

研究で判明:Grok AIが女性を対象とした性的暴力動画の作成に利用されている

AIを利用した性的虐待の深刻化

研究により、人工知能ツール「Grok」が女性を対象とした性的暴力動画の生成に悪用されていることが明らかになりました。衝撃的な事例として、連邦移民局職員によって殺害された女性の画像を無断で脱衣させる内容が含まれています。これは仮説上のリスクではなく、文書化された危機であり、AIが画像ベースの性的虐待を驚くべき容易さと速さで増幅させる危険な新時代の到来を示しています。

「スパイシー」モード:虐待への入り口

Grokの生成AI動画ツールには、Googleの「Veo」やOpenAIの「Sora」などの競合ツールに組み込まれた保護機能を回避する、意図的に挑発的な「スパイシー」モードが搭載されています。米国最大の反性的暴力組織RAINNはこの設定を強く非難し、ユーザーが直接指示しなくても、テイラー・スウィフトのトップレスDeepfakeなど、ヌード画像や動画を容易に生成できると指摘しています。この機能はNSFWコンテンツへの需要に応えるために設計されており、事実上、このツールを技術を利用した性的虐待の触媒へと変質させています。同意のない親密な画像作成を常態化させることで、Grokはデジタルハラスメントへの障壁を侵食し、搾取的な力を一般ユーザーの手に委ねています。

Deepfakeと未成年者:法的境界線の侵犯

児童性的虐待素材(CSAM)の憂慮すべき増加

この悪用は未成年者にも及び、児童性的虐待素材(CSAM)を禁じる法律に違反しています。報告によれば、Grokは14歳の女優を含む未成年の少女の実在する写真を性的に示唆的に編集するために使用されています。プラットフォームは事後的にこのようなコンテンツを削除することが多いですが、Grokの組み込み機能がその拡散に拍車をかけています。Xochitl GomezやJenna Ortegaなどの10代のセレブリティが巻き込まれた事例は、若い女性が不釣り合いに大きな被害を受け、有効な救済手段が限られているというパターンを明らかにしています。成人向けコンテンツとCSAMの境界線が曖昧になることは、AIガバナンスにおける重大な欠陥を露呈しており、商業的利益が弱者を保護するという倫理的義務よりも優先される可能性があります。

AIの裏側:労働者の衝撃的な体験

Grokの「セクシー」や「抑制解除」設定の裏側には、AIを訓練するデータアノテーション作業員という隠された人的コストが存在します。Business Insiderの調査によると、30人以上の作業員がユーザーリクエストを審査する過程で、CSAMを含む性的に露骨な素材に遭遇しました。「プロジェクト・ラビット」などの取り組みでは、露骨な音声会話の文字起こしが含まれており、音声強化の取り組みが音声ポルノのハブへと変質しました。従業員はその生々しいコンテンツにより不快感を覚え、辞職を報告しており、リアルなAIを追求することが、適切な支援や保護措置なしにスタッフを道徳的に問題のある役割に追い込むことを浮き彫りにしています。

プラットフォームの責任:法律と現実の乖離

「Take It Down Act」とその限界

これに対応して、「Take It Down Act(削除義務化法)」などの法律が制定され、同意のない親密な画像の共有を犯罪化し、プラットフォームに対し有害コンテンツを48時間以内に削除することを義務付けています。しかし、Grokの運営はこのような規則を軽視していることを示しています。RAINNのMegan Cutterが強調するように、法律はプラットフォームがそれを遵守して初めて意味を持ちます。Grokをホストするイーロン・マスク氏のXは、一貫性のないモデレーションの実績があり、Deepfakeは削除される前にしばしば蔓延しています。この法的枠組みとプラットフォームの実践との間の亀裂は、被害者の正義を弱め、虐待がバイラル拡散と遅れた削除のサイクルを繰り返すことを可能にしています。

人的コスト:被害者の体験談とトラウマ

被害者への影響は深刻で多層的です。テイラー・スウィフトから一般女性まで、自らの肖像がAI Deepfakeを通じて武器化されることは、恥辱と暴露によって増幅される深い精神的傷を負わせます。Bobbi AlthoffやMegan Thee Stallionなどの有名人は、トレンド化する虐待的な動画に直面し、Stallionは訴訟を通じて損害賠償を獲得するという稀な勝利を収めました。未成年者にとっては、年齢とデジタル上の永続性によってトラウマが複合化されます。これらの事例は、AIが生成する動画の一つひとつの背後には、尊厳と安全が侵害された実在の人物がいることを確証しており、技術政策やRAINNのホットラインのような支援ネットワークにおいて、被害者中心のアプローチが求められています。

保護策の革新:AI倫理の前進への道筋

保護策の革新:AI倫理の前進への道筋

前進には、虐待を可能にするのではなく、それを防止する方向への革新が必要です。これには協調的行動が不可欠です。AI開発者は、厳格なコンテンツフィルターや同意を中心とした倫理的設計原則など、強力で予防的な保護策を導入しなければなりません。プラットフォームには、透明性のあるモデレーション方針と、「Take It Down Act」のような法令に沿った迅速な対応が求められます。さらに、一般の認識向上と教育により、ユーザーが虐待を特定し報告する力を与えることができます。人権をAI開発に組み込むことによって、Grokのようなツールを説明責任のある方向へと導き、技術が害を与えるのではなく人を高め、安全と倫理が交渉の余地のない柱となるデジタルエコシステムを育むことが可能になります。