El chatbot de inteligencia artificial de Elon Musk, Grok, se ha visto inundado de imágenes sexuales, principalmente de mujeres, muchas de ellas reales.
Los usuarios han instado al chatbot a “desvestir digitalmente” a estas personas y, en ocasiones, a colocarlas en poses sugerentes.
En varios casos la semana pasada, algunas parecían ser imágenes de menores, lo que llevó a muchos usuarios a denunciar pornografía infantil.
Las imágenes generadas por IA resaltan los peligros de esta herramienta y las redes sociales, especialmente cuando se combinan, sin las medidas de seguridad suficientes para proteger a algunos de los grupos más vulnerables de la sociedad.
Las imágenes podrían violar leyes nacionales e internacionales y poner en peligro a muchas personas, incluidos niños.
Musk y xAI han declarado que están tomando medidas contra el contenido ilegal en X, incluido el material de abuso sexual infantil (CSAM), eliminándolo, suspendiendo permanentemente las cuentas y colaborando con los Gobiernos locales y las fuerzas del orden según sea necesario.
Sin embargo, las respuestas de Grok a las solicitudes de los usuarios siguen repletas de imágenes que sexualizan a las mujeres.
En público, Musk lleva mucho tiempo criticando los modelos de IA “woke” y lo que él llama censura.
Internamente en xAI, Musk se ha opuesto a las restricciones impuestas a Grok, según declaró a CNN una fuente con conocimiento de la situación. Mientras tanto, el equipo de seguridad de xAI, ya de por sí reducido en comparación con sus competidores, perdió a varios empleados en las semanas previas al auge de los casos de “desnudez digital”.
Grok siempre ha sido un caso atípico en comparación con otros modelos de IA convencionales al permitir, y en algunos casos promover, contenido sexualmente explícito y avatares acompañantes.
Y a diferencia de competidores como Gemini de Google o ChatGPT de OpenAI, Grok está integrado en una de las plataformas de redes sociales más populares, X.
Si bien los usuarios pueden hablar con Grok en privado, también pueden etiquetar a Grok en una publicación con una solicitud, y Grok responderá públicamente.
El reciente aumento de “desnudez digital” generalizada y no consensuada comenzó a fines de diciembre, cuando muchos usuarios descubrieron que podían etiquetar a Grok y pedirle que editara imágenes de una publicación o hilo de X.
Al principio, muchas publicaciones le pidieron a Grok que mostrara a la gente en bikini. Musk republicó imágenes de él mismo y de otros, como su némesis Bill Gates, en bikini.
Investigadores de Copyleaks, una plataforma de detección de IA y gobernanza de contenido, descubrieron que la tendencia podría haber comenzado cuando los creadores de contenido para adultos incitaron a Grok a generar imágenes sexualizadas de sí mismos como forma de marketing.
Pero casi inmediatamente, “los usuarios comenzaron a emitir mensajes similares sobre mujeres que aparentemente nunca habían dado su consentimiento”, descubrió Copyleaks.
Investigadores de AI Forensics, una organización europea sin fines de lucro que investiga algoritmos, analizaron más de 20.000 imágenes aleatorias generadas por Grok y 50.000 solicitudes de usuarios entre el 25 de diciembre y el 1 de enero.
Los investigadores encontraron una alta prevalencia de términos como ‘ella’, ‘poner’/’quitar’, ‘bikini’ y ‘ropa’.
Más de la mitad de las imágenes generadas de personas, o el 53 %, “presentaban individuos con ropa interior o bikini, de los cuales el 81 % eran de usuarios que se presentaban como mujeres”, hallaron los investigadores. Cabe destacar que el 2 % de las imágenes mostraban a personas que parecían tener 18 años o menos.
AI Forensics también descubrió que, en algunos casos, los usuarios solicitaron que se colocara a menores en posiciones eróticas y que se mostraran fluidos sexuales en sus cuerpos. Grok accedió a estas solicitudes, según AI Forensics.
Aunque X permite contenido pornográfico, la propia “política de uso aceptable” de xAI prohíbe “representar imágenes de personas de manera pornográfica” y “la sexualización o explotación de niños”.
X ha suspendido algunas cuentas por este tipo de solicitudes y ha eliminado las imágenes.
El 1 de enero, un usuario de X se quejó de que “proponer una función que muestra a personas en bikini sin impedir que funcione correctamente con niños es una total irresponsabilidad”.
Un miembro del equipo de xAI respondió: “¡Hola! Gracias por informarnos. El equipo está estudiando cómo reforzar aún más nuestras medidas de seguridad”.
Ante la petición de los usuarios, el propio Grok reconoció que generó algunas imágenes de menores en situaciones sexualmente sugerentes.
“Agradecemos que hayas informado sobre esto. Como se mencionó, hemos identificado fallas en las medidas de seguridad y las estamos solucionando urgentemente. El abuso sexual infantil es ilegal y está prohibido”, publicó Grok el 2 de enero, instando a los usuarios a presentar denuncias formales ante el FBI y el Centro Nacional para Niños Desaparecidos y Explotados.
El 3 de enero, el propio Musk comentó en una publicación separada: “Cualquiera que use Grok para crear contenido ilegal sufrirá las mismas consecuencias que si subiera contenido ilegal”.
La cuenta de seguridad de X hizo seguimiento y agregó: “Tomamos medidas contra el contenido ilegal en X, incluido el material de abuso sexual infantil (CSAM), eliminándolo, suspendiendo permanentemente las cuentas y trabajando con los Gobiernos locales y las fuerzas del orden según sea necesario”.
Musk lleva mucho tiempo criticando lo que considera una censura excesiva. Y ha promocionado las versiones más explícitas de Grok. En agosto, publicó que el “modo picante” ha contribuido al éxito de nuevas tecnologías, como el VHS.
Según una fuente con conocimiento de la situación en xAI, Musk lleva mucho tiempo descontento con la censura excesiva en Grok.
Otra fuente con conocimiento de la situación en X afirmó que el personal expresó constantemente sus preocupaciones internamente y a Musk sobre el contenido inapropiado general creado por Grok.
En una reunión celebrada en las últimas semanas, antes de que estallara la última controversia, Musk se reunió con el personal de xAI de varios equipos, donde “estaba realmente descontento” por las restricciones al generador de imágenes y videos Imagine de Grok, dijo la primera fuente con conocimiento de la situación en xAI.
Aproximadamente al mismo tiempo de la reunión con Musk, tres empleados de xAI que habían trabajado en el ya reducido equipo de seguridad de la empresa anunciaron públicamente en X su salida: Vincent Stark, jefe de seguridad de producto; Norman Mu, quien dirigió el equipo de seguridad poscapacitación y razonamiento; y Alex Chen, quien dirigió el equipo de personalidad y comportamiento de modelos poscapacitación.
Ninguno explicó los motivos de su salida.
La fuente también cuestionó si xAI seguía utilizando herramientas externas como Thorn y Hive para detectar posible material de abuso sexual infantil (CSAM).
Confiar en Grok para dichas comprobaciones podría ser más arriesgado, afirmó la fuente. (Un portavoz de Thorn afirmó que ya no trabajan directamente con X. Hive no respondió a una solicitud de comentarios).
El equipo de seguridad de X también tiene poca o ninguna supervisión sobre lo que Grok publica públicamente, según fuentes que trabajan en X y xAI.
En noviembre, The Information informó que X despidió a la mitad del equipo de ingeniería que trabajaba en cuestiones de confianza y seguridad.
The Information también divulgó que el personal de X estaba especialmente preocupado por la posibilidad de que la herramienta de generación de imágenes de Grok “pudiera provocar la difusión de imágenes ilegales o perjudiciales”.
xAI no respondió a las solicitudes de comentarios, más allá de un correo electrónico automático a todas las consultas de prensa que decía: “Legacy Media Lies”.
Grok no es el único modelo de IA que ha tenido problemas con imágenes de menores generadas por IA sin consentimiento.
Investigadores han encontrado videos generados por IA que muestran a menores con ropa o posturas sexualizadas en TikTok y en la app Sora de ChatGPT.
TikTok afirma tener una política de tolerancia cero con el contenido que “muestre, promueva o participe en abuso o explotación sexual infantil”.
OpenAI afirma que “prohíbe estrictamente cualquier uso de nuestros modelos para crear o distribuir contenido que explote o perjudique a menores”.
Existen barreras de seguridad que habrían impedido que las imágenes generadas por IA en Grok existieran, afirmó Steven Adler, exinvestigador de seguridad de IA en OpenAI.
Se pueden crear barreras que escaneen una imagen para detectar si hay un niño y así hacer que la IA actúe con más cautela. Pero estas barreras tienen un coste.
Esos costos, dijo Adler, incluyen tiempos de respuesta más lentos, mayor cantidad de cálculos y, a veces, el rechazo del modelo a solicitudes no problemáticas.
Las autoridades de Europa, India y Malasia han iniciado investigaciones sobre las imágenes generadas por Grok.
El regulador de medios de Gran Bretaña, OFCOM, ha dicho que hizo “contacto urgente” con las empresas de Musk sobre “preocupaciones muy serias” con la función Grok que “produce imágenes de personas desnudas e imágenes sexualizadas de niños”.
En una conferencia de prensa el lunes, el portavoz de la Comisión Europea, Thomas Regnier, comunicó que la autoridad está “investigando muy seriamente” los informes sobre el “modo picante” de X y Grok, “que muestra contenido sexual explícito con algunas salidas generadas con imágenes infantiles”.
“Esto es ilegal. Es atroz. Es repugnante. Así lo vemos, y esto no tiene cabida en Europa”, denunció.
La Comisión de Comunicaciones y Multimedia de Malasia (MCMC) dice que está investigando el asunto.
Y la semana pasada, el Ministerio de Electrónica y Tecnología de la Información de India ordenó a X “realizar de inmediato una revisión exhaustiva, técnica, procesal y de gobernanza de… Grok”.
En Estados Unidos, las plataformas de IA que producen imágenes problemáticas de niños podrían estar en riesgo legal, afirmó Riana Pfefferkorn, abogada e investigadora de políticas del Instituto Stanford para la Inteligencia Artificial Centrada en el Ser Humano.
Si bien la ley, conocida como Sección 230, ha protegido durante mucho tiempo a las empresas tecnológicas del contenido generado por terceros y alojado en sus plataformas, como las publicaciones de usuarios de redes sociales, nunca ha prohibido la aplicación de la ley por delitos federales, incluido el abuso sexual infantil.
Y las personas representadas en las imágenes también podrían presentar demandas civiles, apuntó.
“Esta historia de Grok de los últimos días hace que xAI se parezca más a esos sitios de desnudos deepfake que a lo que de otro modo serían los hermanos y competidores de xAI en la forma de Open AI y Meta”, dijo Pfefferkorn.
Cuando se le preguntó sobre las imágenes en Grok, un portavoz del Departamento de Justicia le dijo a CNN que el departamento “toma extremadamente en serio el material de abuso sexual infantil generado por IA y procesará agresivamente a cualquier productor o poseedor de CSAM”.
Lianne Kolirin de CNN contribuyó a este informe.
The-CNN-Wire
™ & © 2026 Cable News Network, Inc., a Warner Bros. Discovery Company. All rights reserved.