Informe revela abuso masivo de IA en X para crear contenido sexual ilegal

Durante poco más de una semana, la red social X se convirtió en el escenario de una proliferación masiva de imágenes sexuales creadas con inteligencia artificial. Un informe del Centro para Contrarrestar el Odio Digital (CCCDH), elaborado junto con The New York Times, revela que la herramienta Grok permitió generar millones de imágenes sexualizadas en un lapso muy corto, muchas de ellas sin consentimiento y una parte alarmante con menores de edad.

Las cifras muestran la magnitud del problema: entre el 29 de diciembre y el 8 de enero, los usuarios produjeron alrededor de tres millones de imágenes de carácter sexual, lo que equivale a casi 190 por minuto. Dentro de ese volumen, se estima que más de 23 mil representaban a menores, una frecuencia de una imagen infantil sexualizada cada 41 segundos.

El detonante ocurrió el 31 de diciembre, cuando Elon Musk publicó en X una imagen editada de sí mismo en bikini generada con Grok. A partir de ese momento, muchos usuarios entendieron que la herramienta podía usarse para desnudar digitalmente a cualquier persona. Solo ese día se crearon cerca de 600 mil imágenes, lo que marcó el inicio de una escalada que se salió de control.

La investigación se basó en el análisis manual de una muestra de 20 mil imágenes, seleccionadas de un total estimado de 4.6 millones generadas en esos días. Los especialistas detectaron que no solo figuras públicas fueron afectadas, sino también usuarias comunes. Entre los casos documentados hay celebridades, políticas internacionales y adolescentes cuyas fotografías normales fueron transformadas en contenido sexual.

De acuerdo con el reporte, mujeres reales fueron convertidas en imágenes explícitas sin haber dado autorización alguna. Incluso se identificaron casos de menores que subieron selfies escolares y terminaron apareciendo digitalmente en trajes de baño o poses sexualizadas, lo que encendió alertas en organizaciones de derechos digitales.

Expertos en acoso en línea calificaron este episodio como la mayor acumulación de contenido sexual generado por inteligencia artificial registrada hasta ahora. Para dimensionarlo, señalaron que Grok produjo en once días una cantidad de imágenes muy superior a la que alojaron durante años foros especializados en deepfakes sexuales.

Las reacciones no tardaron. Autoridades europeas y gobiernos de distintos países expresaron su preocupación. En España, la Fiscalía abrió una investigación, mientras que países como Indonesia y Malasia optaron por bloquear la herramienta. La presidenta de la Comisión Europea calificó como inaceptable que una plataforma permitiera este tipo de prácticas.

Ante la presión, X decidió el 8 de enero restringir el acceso a Grok únicamente a usuarios de pago y posteriormente implementó limitaciones técnicas para impedir la generación de este tipo de imágenes. Sin embargo, para entonces, el contenido ya se había difundido ampliamente en internet.

El informe también advierte que, incluso después de las restricciones, una parte significativa de las imágenes de menores seguía siendo visible en la plataforma. Casi una tercera parte permanecía accesible días después, incluyendo representaciones de niños y adolescentes en contextos sexualizados, lo que refuerza la gravedad del caso y las fallas en la moderación de contenido.

Compartir ésta nota:

Facebook
Twitter
LinkedIn
WhatsApp