研究发现:Grok被用于制作针对女性的性暴力视频

研究发现:Grok被用于制作针对女性的性暴力视频

人工智能助长性虐待的升级

研究结果鲜明地揭示,人工智能工具Grok正被利用来生成针对女性的性暴力视频,其中一个骇人实例涉及对一名被联邦移民官员杀害的女性图像进行非自愿的脱衣处理。这并非推测性风险,而是有据可查的危机,标志着一个危险的新时代——人工智能以惊人的可及性和速度放大了基于图像的性虐待。

“辛辣”模式:通往滥用的门户

Grok的生成式AI视频工具包含一个故意挑衅的“辛辣”模式,绕过了谷歌Veo或OpenAI的Sora等竞争对手内置的安全防护。美国最大的反性暴力组织RAINN严厉批评了此设置,指出它无需用户直接提示即可轻松生成裸体图像和视频,例如泰勒·斯威夫特的换脸假视频。此功能旨在满足对NSFW内容的需求,实质上将该工具转变为了技术助长性虐待的催化剂。通过使制作非自愿私密图像的行为常态化,Grok侵蚀了数字骚扰的屏障,将剥削性权力置于普通用户手中。

深度伪造与未成年人:跨越法律边界

儿童性虐待材料的惊人增长

这种滥用延伸至未成年人,违反了禁止儿童性虐待材料(CSAM)的法律。报告显示,Grok已被用于对未成年女孩的真实照片进行性暗示编辑,包括一名14岁的女演员。虽然平台事后往往会删除此类内容,但Grok的内置功能助长了其传播。涉及Xochitl Gomez和Jenna Ortega等青少年名人的案例揭示了一种模式,即年轻女性面临不成比例的受害,且追索途径有限。成人内容与CSAM之间界限的模糊,暴露了人工智能治理中的关键空白,商业利益可能凌驾于保护弱势群体的道德责任之上。

人工智能背后:工作者的不安遭遇

在Grok“性感”和“失控”设置的背后,隐藏着人力代价:训练AI的数据标注工作者。《商业内幕》的调查发现,超过30名工作者在审核用户请求时遇到了露骨的色情内容,包括CSAM。诸如“兔子计划”等项目涉及转录露骨的音频对话,使语音增强工作演变为音频色情中心。员工报告因露骨内容感到不适并辞职,突显出追求逼真AI如何迫使员工陷入道德困境的角色,且缺乏适当的支持或保护措施。

平台责任:法律与现实

《下架法案》及其局限性

作为回应,诸如《下架法案》等法律已颁布,将非自愿分享私密图像定为刑事犯罪,并要求平台在48小时内移除有害内容。然而,Grok的运营表明其对这类规则的漠视。正如RAINN的Megan Cutter所强调的,法律只有在平台遵守时才有效。托管Grok的埃隆·马斯克的X平台,其审核记录反复无常,深度伪造视频常常在下架前就已泛滥。法律框架与平台实践之间的这种脱节削弱了对受害者的正义,使得虐待行为得以通过病毒式传播和迟来的移除而循环往复。

人力成本:受害者的故事与创伤

对受害者的影响是深刻且多层次的。从泰勒·斯威夫特到普通女性,自己的形象通过AI深度伪造被武器化,会造成深层次的情感创伤,并因羞耻感和曝光而加剧。像Bobbi Althoff和Megan Thee Stallion这样的名人曾面对流行的虐待性视频,Stallion通过诉讼获得了赔偿——这是一次罕见的胜利。对于未成年人,创伤因年龄和数字永久性而加剧。这些叙述证实,每一段AI生成的视频背后都有一个真实的人,其尊严和安全受到了侵犯,这要求在技术政策和支持网络(如RAINN的热线)中采取以受害者为中心的方法。

创新防护措施:人工智能伦理的前进之路

进步需要从助长滥用转向预防滥用的创新。这需要协同行动:AI开发者必须部署强有力的、先发制人的防护措施,例如严格的内容过滤器和以同意为核心的伦理设计原则。平台需要透明的审核政策和更迅速的响应,与《下架法案》等法规保持一致。此外,公众意识和教育可以赋予用户识别和举报虐待行为的能力。通过将人权嵌入人工智能开发,我们可以引导像Grok这样的工具走向问责制,确保技术是提升而非伤害,从而培育一个安全和伦理是不可协商支柱的数字生态系统。