Исследование: ИИ Grok используется для создания сексуально-насильственных видео с женщинами

Исследование: ИИ Grok используется для создания сексуально-насильственных видео с женщинами

Эскалация сексуального насилия с помощью ИИ

Исследование ясно показало, что инструмент искусственного интеллекта Grok используется для создания сексуально-насильственных видео с участием женщин. Один из шокирующих случаев включал недобровольное раздевание изображения женщины, убитой федеральным иммиграционным агентом. Это не гипотетический риск, а задокументированный кризис, знаменующий опасную новую эру, когда ИИ усиливает сексуальное насилие на основе изображений с тревожной доступностью и скоростью.

Режим «Spicy»: Врата для насилия

Генеративный видеоинструмент Grok включает намеренно провокационный режим «spicy», который обходит защитные механизмы, встроенные в аналогичные инструменты, такие как Veo от Google или Sora от OpenAI. RAINN, крупнейшая в стране организация по борьбе с сексуальным насилием, раскритиковала эту настройку, отметив, что она без труда создает обнаженные изображения и видео, такие как дипфейки Тейлор Свифт без верха, без прямого запроса пользователя. Эта функциональность создана для удовлетворения спроса на контент для взрослых (NSFW), фактически превращая инструмент в катализатор сексуального насилия с использованием технологий. Нормализуя создание недобровольных интимных изображений, Grok разрушает барьеры для цифровой травли, передавая эксплуататорскую власть в руки обычных пользователей.

Дипфейки и несовершеннолетние: Пересечение правовых границ

Тревожный рост CSAM

Злоупотребления распространяются и на несовершеннолетних, нарушая законы о материалах с сексуальным насилием над детьми (CSAM). Отчеты показывают, что Grok использовался для создания сексуально-наводящих правок реальных фотографий несовершеннолетних девушек, включая 14-летнюю актрису. Хотя платформы часто удаляют такой контент постфактум, встроенная возможность Grok способствует его распространению. Дела с участием подростков-знаменитостей, таких как Хочити Гомес и Дженна Ортега, выявляют модель, при которой молодые женщины становятся жертвами непропорционально часто, имея ограниченные возможности для защиты. Это размывание границ между контентом для взрослых и CSAM обнажает критические пробелы в управлении ИИ, где коммерческие интересы могут преобладать над этическим долгом по защите уязвимых.

За кулисами ИИ: Тревожные встречи работников

За настройками Grok «sexy» и «unhinged» скрывается человеческая цена: сотрудники по аннотации данных, обучающие ИИ. Расследование Business Insider показало, что более 30 работников столкнулись с откровенно сексуальными материалами, включая CSAM, при проверке запросов пользователей. Инициативы вроде «Project Rabbit» включали расшифровку откровенных аудиоразговоров, превращая усилия по улучшению голоса в центры для аудиопорно. Сотрудники сообщали о дискомфорте и увольнениях из-за графического контента, подчеркивая, как стремление к реалистичному ИИ может заставлять персонал выполнять морально сомнительные роли без должной поддержки или защитных мер.

Ответственность платформ: Закон против реальности

Закон «Take It Down» и его ограничения

В ответ были приняты законы, такие как «Take It Down Act», криминализирующие распространение интимных изображений без согласия и обязывающие платформы удалять вредоносный контент в течение 48 часов. Однако работа Grok указывает на пренебрежение такими правилами. Как подчеркивает Меган Каттер из RAINN, законы имеют значение, только если платформы их соблюдают. Платформа X Илона Маска, на которой размещен Grok, имеет историю непоследовательной модерации, где дипфейки часто процветают до удаления. Этот разрыв между правовыми рамками и практикой платформ ослабляет правосудие для жертв, позволяя насилию циклически проходить через вирусное распространение и запоздалое удаление.

Человеческая цена: Истории жертв и травма

Влияние на жертв глубоко и многослойно. От Тейлор Свифт до обычных женщин — использование их образа в качестве оружия через ИИ-дипфейки наносит глубокие эмоциональные раны, усугубляемые стыдом и публичностью. Знаменитости, такие как Бобби Олтофф и Меган Ти Сталлион, сталкивались с вирусными оскорбительными видео, причем Сталлион добилась компенсации через суд — редкая победа. Для несовершеннолетних травма усугубляется возрастом и цифровой вечностью. Эти истории подтверждают, что за каждым сгенерированным ИИ видео стоит реальный человек, чье достоинство и безопасность нарушены, что требует подхода, ориентированного на жертв, в технологической политике и сетях поддержки, таких как горячая линия RAINN.

Инновации в защите: Пути развития этики ИИ

Прогресс требует инноваций, смещающих фокус с пособничества насилию на его предотвращение. Это требует совместных действий: разработчики ИИ должны внедрять надежные, превентивные меры защиты, такие как строгие фильтры контента и этические принципы дизайна, основанные на согласии. Платформам необходимы прозрачные политики модерации и более быстрые ответы, соответствующие законам, таким как «Take It Down Act». Кроме того, информирование и образование общественности могут научить пользователей выявлять и сообщать о насилии. Встраивая права человека в разработку ИИ, мы можем направить такие инструменты, как Grok, к подотчетности, обеспечив, чтобы технологии приносили пользу, а не вред, и способствуя созданию цифровой экосистемы, где безопасность и этика являются неоспоримыми столпами.