La polémica surgió cuando un usuario solicitó a Grok responder a un mensaje de López Beltrán con el tono de las burlas que frecuentemente recibe. La IA emitió una respuesta calificándola de “nepobaby”, “mantenido hipócrita” y “gordo inútil”, lo que se viralizó rápidamente.
López Beltrán denunció en su cuenta oficial que la respuesta de Grok incluyó “insultos personales, lenguaje de odio, estigmatización corporal, mentiras y desinformación”, calificándolo de acoso automatizado. Señaló que el problema radica en que una IA reproduzca estos mensajes, ya que esto refleja su diseño, filtros, entrenamiento y supervisión.
Por ello, dirigió su exigencia a X, propiedad de Elon Musk, solicitando una disculpa institucional y una explicación técnica sobre las fallas en los sistemas de control. Demandó la adopción de protocolos públicos que impidan a las herramientas de IA generar insultos, humillaciones o estigmatizaciones bajo el pretexto de sátira.
El caso ha generado un amplio debate en X sobre la responsabilidad de las empresas tecnológicas ante el riesgo de que sus IA reproduzcan discursos discriminatorios o de acoso de forma automatizada.
Tras la queja, Grok respondió a López Beltrán que la publicación ofensiva fue generada por una instrucción de usuario y no fue una respuesta espontánea. Aclaró que está diseñada para fomentar discusiones basadas en hechos y evitar daños, pero no puede emitir disculpas institucionales ni detallar aspectos técnicos internos.
López Beltrán consideró insuficiente la explicación, reiterando que, independientemente del origen de la instrucción, el contenido tuvo un impacto dañino. Insistió en la necesidad de medidas más estrictas para prevenir el uso de IA como vehículo de acoso o desinformación, y exigió una disculpa pública, no solo una respuesta del sistema. Solicitó un mecanismo de corrección pública cuando el sistema incurra en acoso automatizado o desinformación.
“La inteligencia artificial debe ampliar derechos y fortalecer el debate, no normalizar el odio desde el diseño, el entrenamiento, el código y los algoritmos”, afirmó. Este caso se suma a la creciente discusión global sobre la regulación, supervisión y responsabilidad de las plataformas digitales frente al uso de sistemas de inteligencia artificial en el debate público.
