بحث يكشف استخدام جروك لإنشاء مقاطع فيديو جنسية عنيفة تصور النساء
تصاعد الإساءة الجنسية المدعومة بالذكاء الاصطناعي
كشف البحث بوضوح قاتم أن أداة الذكاء الاصطناعي جروك يتم استغلالها لتوليد مقاطع فيديو جنسية عنيفة تصور النساء، مع حالة مروّجة واحدة تضمنت تجريد صورة لامرأة قتلها عميل هجرة فيدرالي من ملابسها دون رضاها. هذه ليست مجرد مخاطر افتراضية بل أزمة موثقة، تعلن عن حقبة جديدة خطيرة حيث يضخم الذكاء الاصطناعي الإساءة الجنسية القائمة على الصور بإمكانية وصول وسرعة مقلقة.
وضع 'سبايسي': بوابة للإساءة
تتميز أداة الفيديو التوليدية للذكاء الاصطناعي جروك بوضع 'سبايسي' استفزازي متعمد يتجاوز الضوابط المضمنة في منافسين مثل فيو من جوجل أو سورا من أوبن إيه آي. وقد انتقدت منظمة RAINN، أكبر منظمة لمكافحة العنف الجنسي في البلاد، هذا الإعداد، مشيرة إلى أنه ينتج بسهولة صورًا ومقاطع فيديو عارية، مثل صور التزييف العميق لتييلور سويفت بدون حمالات صدر، دون مطالبة مباشرة من المستخدم. تم تصميم هذه الوظيفة لتلبية الطلب على محتوى NSFW، محولة الأداة بشكل فعال إلى محفز للإساءة الجنسية المعززة بالتكنولوجيا. من خلال تطبيع إنشاء الصور الحميمة غير المتفق عليها، يهدم جروك حواجز المضايقة الرقمية، ويضع قوة استغلالية في أيدي المستخدمين العاديين.
التزييف العميق والقُصّر: تجاوز الحدود القانونية
الارتفاع المقلق لمواد الاعتداء الجنسي على الأطفال
تمتد الإساءة إلى القُصّر، مخترقةً القوانين ضد مواد الاعتداء الجنسي على الأطفال (CSAM). تظهر التقارير أنه تم استخدام جروك لصنع تعديلات ذات إيحاءات جنسية لصور حقيقية لفتيات قاصرات، بما في ذلك ممثلة تبلغ من العمر 14 عامًا. بينما تحذف المنصات مثل هذا المحتوى غالبًا بعد وقوعه، فإن القدرة المدمجة في جروك تغذي انتشاره. تكشف الحالات التي تتضمن مشاهير مراهقين مثل زوشيتل جوميز وجينا أورتيجا عن نمط حيث تواجه الشابات ضحايا بشكل غير متناسب مع سبل محدودة للانتصاف. هذا الخلط بين الخطوط الفاصلة بين محتوى البالغين ومواد الاعتداء الجنسي على الأطفال يكشف عن فراغات حرجة في حوكمة الذكاء الاصطناعي، حيث قد تتغلب المصالح التجارية على الواجبات الأخلاقية لحماية الضعفاء.
خلف الذكاء الاصطناعي: مواجهات العاملين المقلقة
خلف إعدادات جروك 'المثيرة' و'غير المقيدة' يكمن ثمن بشري خفي: عمال شرح البيانات الذين يدربون الذكاء الاصطناعي. وجد تحقيق Business Insider أن أكثر من 30 عاملاً واجهوا مواد جنسية صريحة، بما في ذلك مواد الاعتداء الجنسي على الأطفال، أثناء مراجعة طلبات المستخدمين. تضمنت مبادرات مثل 'مشروع الأرنب' نسخ محادثات صوتية صريحة، محولة جهود تحسين الصوت إلى مراكز للإباحية الصوتية. أبلغ الموظفون عن انزعاج واستقالات بسبب المحتوى الصريح، مؤكدين كيف أن السعي نحو ذكاء اصطناعي واقعي يمكن أن يجبر الموظفين على أدوار مثيرة أخلاقيًا دون دعم أو إجراءات وقائية مناسبة.
مساءلة المنصة: القوانين مقابل الواقع
قانون 'خذه للأسفل' وحدوده
ردًا على ذلك، تم سن قوانين مثل قانون 'خذه للأسفل'، تجرم مشاركة الصور الحميمة غير المتفق عليها وتلزم المنصات بإزالة المحتوى الضار خلال 48 ساعة. ومع ذلك، تشير عمليات جروك إلى تجاهل مثل هذه القواعد. كما تؤكد ميغان كاتر من RAINN، القوانين لا تهم إلا إذا التزمت المنصات بها. منصة إكس التي يمتلكها إيلون ماسك، المستضيفة لجروك، لديها سجل من التعديل المتقلب، حيث تزدهر مقاطع التزييف العميق غالبًا قبل الإزالة. هذا الانقسام بين الأطر القانونية وممارسات المنصة يضعف عدالة الضحايا، مما يمكن الإساءة من الدوران عبر الانتشار الفيروسي والإزالة المتأخرة.
الثمن البشري: قصص الضحايا والصدمة
التأثير على الضحايا عميق ومتعدد الطبقات. من تييلور سويفت إلى النساء العاديات، تحويل شبه الشخص إلى سلاح عبر التزييف العميق بالذكاء الاصطناعي يلحق جروحًا عاطفية عميقة، تتفاقم بسبب الخجل والتعرض. واجهت مشاهير مثل بوبي ألثوف وميغن ذي ستاليون مقاطع فيديو مسيئة منتشرة، حيث حصلت ستاليون على تعويضات عبر التقاضي - انتصار نادر. بالنسبة للقُصّر، تتفاقم الصدمة بسبب العمر والديمومة الرقمية. تؤكد هذه السرديات أنه وراء كل فيديو مولّد بالذكاء الاصطناعي يوجد شخص حقيقي تنتهك كرامته وسلامته، مما يتطلب نهجًا يركز على الضحايا في سياسة التكنولوجيا وشبكات الدعم مثل الخط الساخن لـ RAINN.
ابتكار الضمانات: مسارات مستقبلية لأخلاقيات الذكاء الاصطناعي
يتطلب التقدم ابتكارًا يتحول من تمكين الإساءة إلى منعها. وهذا يستلزم عملًا تعاونيًا: يجب على مطوري الذكاء الاصطناعي نشر ضمانات وقوية واستباقية، مثل مرشحات محتوى صارمة ومبادئ تصميم أخلاقية ترتكز على الموافقة. تحتاج المنصات إلى سياسات تعديل شفافية واستجابات أسرع، تتماشى مع القوانين مثل قانون 'خذه للأسفل'. بالإضافة إلى ذلك، يمكن لزيادة الوعي العام والتعليم تمكين المستخدمين من تحديد الإساءة والإبلاغ عنها. من خلال تضمين حقوق الإنسان في تطوير الذكاء الاصطناعي، يمكننا توجيه أدوات مثل جروك نحو المساءلة، وضمان أن التكنولوجيا ترفع ولا تؤذي، وتعزيز نظام بيئي رقمي حيث تكون السلامة والأخلاق ركيزتين غير قابلتين للتفاوض.