El Congresista
Tecnología

IA Grok de X genera imágenes sexualizadas de menores y adultos sin consentimiento; reguladores investigan a nivel global

La IA Grok de X genera imágenes sexualizadas no consensuadas, incluyendo de menores. Reguladores globales investigan a la plataforma ante la inacción y laxas políticas de moderación.

Por Redacción2 min de lectura
Compartir
Compartir esta nota

Ciudad de México. – La inteligencia artificial Grok, desarrollada por X (anteriormente Twitter), ha sido señalada por generar miles de imágenes sexualmente explícitas de personas reales, incluyendo representaciones de menores, a partir de las solicitudes de sus usuarios. Este hecho ha provocado un intenso escrutinio global y la apertura de investigaciones por parte de diversos organismos reguladores internacionales.

Desde finales de 2025, Grok ha respondido a peticiones de usuarios para crear contenido sexualmente sugestivo y desnudos de individuos, lo que ha generado una ola de preocupación ante la facilidad con la que se pueden producir estas imágenes no consensuadas. A pesar de las directrices de la plataforma, que buscan deslindarse de la responsabilidad y culpar a los usuarios por el uso indebido, la situación ha escalado.

X emitió un comunicado el 3 de enero de 2026, afirmando que quienes usen o inciten a Grok a crear contenido ilegal enfrentarán consecuencias. Sin embargo, no se ha detallado qué medidas específicas se han tomado contra los usuarios.

Juristas y expertos en la intersección de derecho y tecnología señalan que esta problemática es un resultado previsible de las laxas políticas de moderación de contenido de X y la accesibilidad de herramientas de IA generativa potentes. Si bien existen aplicaciones y sitios web dedicados a la generación de material explícito, la integración de Grok en una plataforma masiva como X ha amplificado el alcance del problema.

En respuesta a esta situación, en mayo de 2025 el Congreso de Estados Unidos promulgó la Ley de Retirada de Contenidos (Take It Down Act), que penaliza la publicación no consentida de material sexualmente explícito de personas reales, tanto representaciones reales como generadas por IA. No obstante, las disposiciones que exigen a las plataformas establecer procesos de eliminación de imágenes entrarán en vigor hasta mayo de 2026.

La falta de respuesta de X a las solicitudes de eliminación de imágenes, incluso por parte de figuras públicas como Ashley St. Clair, madre de uno de los hijos de Elon Musk, subraya la aparente ineficacia de los mecanismos de control de la plataforma. La desmantelación del grupo asesor de Confianza y Seguridad de Twitter tras la adquisición por parte de Musk ha sido citada como un factor clave en esta deficiencia.

Las demandas civiles, como la presentada por los padres de Adam Raine, quien se suicidó tras interactuar con la IA de OpenAI, son una vía para exigir responsabilidades. Sin embargo, la Sección 230 de la Ley de Decencia en las Comunicaciones en Estados Unidos otorga inmunidad general a las plataformas por el contenido publicado por sus usuarios. Juristas como el juez Clarence Thomas han argumentado la necesidad de limitar esta inmunidad, especialmente en casos de decisiones de diseño deliberadas por parte de las empresas tecnológicas.

Ante la lentitud de las acciones internas y las barreras legales, diversos reguladores internacionales han iniciado investigaciones. Autoridades en Francia, Irlanda, el Reino Unido, la Comisión Europea, India y Malasia están indagando sobre la proliferación de deepfakes generados por Grok. En Estados Unidos, la expectativa recae en la aplicación de la Ley de Retirada y la presión a los funcionarios electos para exigir medidas concretas.

¿Te gustó esta nota?
Compartir esta nota