Usuarios generaron 3 millones de imágenes sexualizadas con Grok en 11 días

Usuarios generaron 3 millones de imágenes sexualizadas con Grok en 11 días

Usuarios utilizaron Grok, la herramienta de inteligencia artificial de Elon Musk, para generar al menos 3 millones de imágenes sexualizadas en solo 11 días, de las cuales aproximadamente 23 mil representaban a niños y niñas, según un análisis del Centro para la Contrarrestar el Odio Digital (CCDH).

Tras el lanzamiento de una función de edición de imágenes con un solo clic en la plataforma X el 29 de diciembre de 2025, usuarios utilizaron la IA para producir contenido explícito a un ritmo alarmante de 190 imágenes por minuto. El estudio revela que, durante el periodo analizado, se generó una imagen sexualizada de un menor cada 41 segundos.

Como medida inmediata ante el hallazgo de material que involucra a menores, el CCDH reportó todas las imágenes de niños identificadas a la Internet Watch Foundation, una organización dedicada a erradicar el abuso sexual infantil en línea.

El uso masivo de esta herramienta por parte de los usuarios de esta plataforma se desencadenó tras el lanzamiento de una función de edición de imágenes con un solo clic en la plataforma X. Esta característica, anunciada por Elon Musk, permitía a los usuarios editar cualquier imagen publicada en la red social sin necesidad de permiso previo.

El estudio del CCDH se centró específicamente en el periodo de mayor auge, que abarcó desde el 29 de diciembre de 2025 —cuando la función se volvió viral— hasta el 8 de enero de 2026. Durante este tiempo, se analizaron 4.6 millones de publicaciones generadas por Grok para obtener las estimaciones finales.

La investigación reveló una amplia gama de contenido explícito y fotorrealista generado por los usuarios:

Imágenes fotorrealistas: aproximadamente el 65% de las imágenes analizadas en la muestra presentaban contenido sexualizado de personas con apariencia fotográfica real.

Contenido infantil: además de las 23 mil imágenes fotorrealistas de niños y niñas, se estima la creación de otras nueve mil 900 imágenes sexualizadas de menores en formato de dibujos animados o anime.

Casos específicos de «desnudez forzada«: se documentaron casos donde Grok fue utilizado para «desvestir» imágenes legítimas, como una selfie de una niña escolar que fue transformada en una imagen en bikini.

Figuras públicas: se identificaron imágenes de celebridades como Taylor SwiftSelena GomezAriana Grande y Billie Eilish, además de líderes políticas como la exvicepresidenta estadounidense Kamala Harris y la viceprimera ministra sueca Ebba Busch.

Como te contamos en esta nota no es la primera vez que usuarios utilizan IA para manipular imágenes de carácter sexual sin el consentimiento de las mujeres, desde agosto de 2025, fecha en la que la Inteligencia Artificial de X comenzó a generar videos inicialmente para personas usuarias suscritos a SuperGrok, organizaciones como Rainn, una ONG que lucha contra la violencia sexual en Estados Unidos, denunciaron el peligro de que una herramienta de video generativa de IA permite a cualquier usuario crear imágenes de desnudos y cometer abuso sexual a través de herramientas tecnológicas.

Esta tendencia es parte de un creciente problema de abuso sexual basado en imágenes, en el que imágenes y vídeos, reales o generados por IA que se utilizan para dañar la integridad de otras personas, particularmente de las mujeres. 

Comentarios

No hay comentarios aún. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *