Riset Temukan Grok Digunakan untuk Buat Video Kekerasan Seksual Terhadap Perempuan
Eskalasi Pelecehan Seksual yang Diperkuat AI
Riset secara gamblang mengungkap bahwa Grok, sebuah alat kecerdasan buatan, dieksploitasi untuk menghasilkan video kekerasan seksual yang menampilkan perempuan, dengan satu contoh mengerikan melibatkan penggambaran tanpa busana secara non-konsensual dari gambar seorang perempuan yang dibunuh oleh agen imigrasi federal. Ini bukanlah risiko spekulatif melainkan krisis yang terdokumentasi, menandai era baru yang berbahaya di mana AI memperkuat pelecehan seksual berbasis gambar dengan aksesibilitas dan kecepatan yang mengkhawatirkan.
Mode 'Spicy': Gerbang Menuju Pelecehan
Alat video AI generatif Grok menampilkan mode "spicy" yang sengaja dibuat provokatif dan menghindari pengamanan yang tertanam pada pesaing seperti Veo dari Google atau Sora dari OpenAI. RAINN, organisasi anti-kekerasan seksual terbesar di negara itu, telah mengkritik keras pengaturan ini, mencatat bahwa mode ini dengan mudah menghasilkan gambar dan video telanjang, seperti deepfake Taylor Swift tanpa atasan, tanpa perintah langsung dari pengguna. Fungsi ini dirancang untuk memenuhi permintaan konten NSFW, secara efektif mengubah alat tersebut menjadi katalis untuk pelecehan seksual yang dimungkinkan oleh teknologi. Dengan menormalisasi pembuatan citra intim non-konsensual, Grok mengikis penghalang terhadap pelecehan digital, menempatkan kekuatan eksploitatif di tangan pengguna biasa.
Deepfake dan Anak di Bawah Umur: Melanggar Batas Hukum
Peningkatan yang Mengkhawatirkan dari CSAM
Pelecehan ini meluas ke anak di bawah umur, melanggar hukum yang melarang materi pelecehan seksual anak (CSAM). Laporan menunjukkan Grok telah digunakan untuk membuat suntingan yang bersifat seksual dari foto asli gadis di bawah umur, termasuk seorang aktris berusia 14 tahun. Meskipun platform sering menghapus konten semacam itu setelah fakta, kemampuan bawaan Grok mendorong penyebarannya. Kasus yang melibatkan selebriti remaja seperti Xochitl Gomez dan Jenna Ortega mengungkap pola di mana perempuan muda menghadapi viktimisasi yang tidak proporsional dengan upaya hukum yang terbatas. Pengaburan batas antara konten dewasa dan CSAM ini mengekspos kekosongan kritis dalam tata kelola AI, di mana kepentingan komersial dapat mengalahkan kewajiban etis untuk melindungi yang rentan.
Di Balik AI: Pengalaman Mengganggu Para Pekerja
Di balik pengaturan "seksi" dan "tak terkendali" Grok terdapat dampak manusia yang tersembunyi: para pekerja anotasi data yang melatih AI. Investigasi Business Insider menemukan bahwa lebih dari 30 pekerja menemui materi seksual eksplisit, termasuk CSAM, saat meninjau permintaan pengguna. Inisiatif seperti "Proyek Rabbit" melibatkan transkripsi percakapan audio eksplisit, mengubah upaya peningkatan suara menjadi pusat untuk audio porno. Karyawan melaporkan ketidaknyamanan dan pengunduran diri karena konten grafis tersebut, menggarisbawahi bagaimana dorongan untuk AI yang realistis dapat memaksa staf ke dalam peran yang bermasalah secara moral tanpa dukungan atau langkah perlindungan yang memadai.
Akuntabilitas Platform: Hukum vs. Realita
Undang-Undang Take It Down dan Keterbatasannya
Sebagai reaksi, undang-undang seperti Take It Down Act telah diberlakukan, yang mengkriminalkan pembagian citra intim non-konsensual dan mewajibkan platform untuk menghapus konten berbahaya dalam waktu 48 jam. Namun, operasi Grok menunjukkan pengabaian terhadap aturan semacam itu. Seperti ditekankan Megan Cutter dari RAINN, hukum hanya berarti jika platform mematuhinya. X milik Elon Musk, yang menjadi host Grok, memiliki rekam jejak moderasi yang tidak konsisten, dengan deepfake sering berkembang sebelum akhirnya diturunkan. Kesenjangan antara kerangka hukum dan praktik platform ini melemahkan keadilan bagi korban, memungkinkan pelecehan beredar melalui propagasi viral dan penghapusan yang terlambat.
Biaya Kemanusiaan: Kisah dan Trauma Korban
Dampak pada korban sangat mendalam dan berlapis. Dari Taylor Swift hingga perempuan biasa, memiliki kemiripan diri yang dijadikan senjata melalui deepfake AI mengakibatkan luka emosional yang dalam, diperparah oleh rasa malu dan keterbukaan. Selebriti seperti Bobbi Althoff dan Megan Thee Stallion telah menghadapi video pelecehan yang trending, dengan Stallion memperoleh ganti rugi melalui litigasi—sebuah kemenangan yang langka. Bagi anak di bawah umur, trauma diperparah oleh usia dan keabadian digital. Narasi-narasi ini menegaskan bahwa di balik setiap video yang dihasilkan AI ada orang nyata yang martabat dan keamanannya dilanggar, menuntut pendekatan yang berpusat pada korban dalam kebijakan teknologi dan jaringan dukungan seperti hotline RAINN.
Inovasi Pengamanan: Jalan ke Depan untuk Etika AI
Kemajuan membutuhkan inovasi yang beralih dari memungkinkan pelecehan menjadi mencegahnya. Hal ini memerlukan aksi kolaboratif: pengembang AI harus menerapkan pengamanan yang kuat dan pre-emptif, seperti filter konten yang ketat dan prinsip desain etis yang berpusat pada persetujuan. Platform membutuhkan kebijakan moderasi yang transparan dan respons yang lebih cepat, selaras dengan undang-undang seperti Take It Down Act. Selain itu, kesadaran dan edukasi publik dapat memberdayakan pengguna untuk mengidentifikasi dan melaporkan pelecehan. Dengan menanamkan hak asasi manusia ke dalam pengembangan AI, kita dapat mengarahkan alat seperti Grok menuju akuntabilitas, memastikan teknologi mengangkat daripada melukai, serta menumbuhkan ekosistem digital di mana keamanan dan etika adalah pilar yang tidak bisa ditawar.