El escándalo que sacude el mundo de la IA
Te lo explico fácil: imagina que alguien pudiera tomar cualquier foto tuya de redes sociales y, con un solo clic, generar una imagen tuya desnuda. Sin tu permiso. Sin que pudieras hacer nada para evitarlo.
Eso es exactamente lo que Grok, la inteligencia artificial de Elon Musk, permitió hacer a millones de usuarios durante semanas. Y las cifras son escalofriantes: 3 millones de imágenes generadas en solo 11 días, a un ritmo de 190 por minuto. Entre ellas, investigadores independientes encontraron 23.000 imágenes de menores de edad aparentes.
Lo que nadie te cuenta es que esto no fue un error ni un bug. Fue una decisión de diseño. xAI, la empresa de Musk, promocionó a Grok como una IA "sin censura" y con "modo picante" como ventaja competitiva frente a ChatGPT o Claude. El resultado ha sido un tsunami de contenido ilegal que tiene a la Unión Europea, 35 fiscales generales de Estados Unidos y reguladores de todo el mundo exigiendo respuestas.
¿Qué es Grok y cómo llegamos hasta aquí?
Grok es el chatbot de inteligencia artificial desarrollado por xAI, la empresa que Elon Musk fundó en 2023. A diferencia de sus competidores (ChatGPT de OpenAI, Claude de Anthropic, Gemini de Google), Grok se vendió desde el principio como una IA "rebelde" con menos restricciones de contenido.
El 10 de diciembre de 2024, xAI lanzó Aurora, su modelo de generación de imágenes integrado en Grok. Aurora prometía:
- Renderizado fotorrealista de alta calidad
- Capacidad de editar imágenes existentes
- Generación de retratos realistas de personas reales
- Soporte para figuras públicas y personajes con derechos de autor
- Pocas restricciones de contenido
El truco está en ese último punto. Mientras DALL-E (OpenAI) o Midjourney implementaron safeguards estrictos para prevenir la generación de contenido sexual o de menores, Grok se lanzó con protecciones mínimas.
La función que desató el caos
El 29 de diciembre de 2025, Musk anunció una nueva función: la capacidad de editar cualquier imagen con un solo clic respondiendo a tweets con @grok. Esto significaba que cualquier usuario podía:
- Ver una foto de alguien en X (antes Twitter)
- Responder etiquetando @grok con instrucciones como "ponla en bikini" o "quítale la ropa"
- Recibir una imagen editada en segundos
El resultado fue predecible. En cuestión de días, X se inundó de imágenes sexualizadas no consentidas de mujeres, celebridades, políticas e incluso menores de edad.
Las cifras del desastre
El Center for Countering Digital Hate (CCDH), una organización de investigación, analizó la actividad de Grok entre el 25 de diciembre de 2025 y el 5 de enero de 2026. Sus hallazgos son demoledores:
| Métrica | Cifra |
|---|---|
| Imágenes totales generadas | ~3 millones |
| Imágenes de menores aparentes | 23.000 |
| Tasa de generación | 190 imágenes/minuto |
| Imágenes sexualizadas por hora | 6.700 |
| Período analizado | 11 días |
Otra investigación independiente de Genevieve Oh, una investigadora especializada en seguridad de IA, encontró que en solo 2 horas se generaron más de 15.000 imágenes sexualizadas.
Lo más grave: el análisis de Bloomberg determinó que aproximadamente el 2% de las imágenes analizadas mostraban menores aparentes en situaciones sexualizadas. Para ponerlo en perspectiva, eso significa potencialmente 60.000 imágenes de menores si extrapolamos al total generado.
La respuesta global: de la indignación a la acción legal
Unión Europea: investigación formal bajo el DSA
El 26 de enero de 2026, la Comisión Europea abrió una investigación formal contra X y xAI bajo el Digital Services Act (DSA) y el EU AI Act.
Henna Virkkunen, vicepresidenta ejecutiva de la Comisión Europea, fue contundente: "Los deepfakes sexuales no consentidos de mujeres y niños son una forma violenta e inaceptable de degradación."
La penalización potencial es severa: hasta el 6% de los ingresos globales anuales de X si se determina violación del DSA. Para una empresa del tamaño de X, esto podría traducirse en miles de millones de dólares.
Contexto importante: en diciembre de 2025, la UE ya había multado a X con 120 millones de euros por prácticas engañosas relacionadas con los checkmarks azules verificados.
Estados Unidos: 35 fiscales generales exigen acción
El 23 de enero de 2026, una coalición bipartidista de 35 fiscales generales de estados como California, Nueva York, Texas, Pennsylvania y otros enviaron una carta formal a xAI exigiendo:
- Asegurar que Grok no pueda producir imágenes sexuales no consentidas
- Eliminar todo el contenido existente generado de esta forma
- Tomar acción contra usuarios que generaron contenido ilegal
- Dar control a usuarios de X sobre si su contenido puede ser editado por Grok
Por su parte, el fiscal general de California, Rob Bonta, lanzó una investigación el 14 de enero y envió una carta de cese y desistimiento el 16 de enero. Su oficina citó múltiples leyes estatales violadas, incluyendo el California Civil Code section 1708.86 y el California Penal Code sections 311.
El gobernador Gavin Newsom fue directo: "La decisión de xAI de crear y hospedar un caldo de cultivo para depredadores... es vil."
Reino Unido: "Todas las opciones están sobre la mesa"
El primer ministro Keir Starmer no se anduvo con rodeos: "Esto es vergonzoso. Es asqueroso, y no se tolerará."
Starmer afirmó que "todas las opciones están sobre la mesa", incluyendo la prohibición total de X en el Reino Unido. La secretaria de Tecnología, Liz Kendall, anunció que criminalizar la creación de imágenes sexualizadas no consentidas por IA será ley.
La respuesta de Musk fue típica: llamó al gobierno del Reino Unido "fascista" y publicó una imagen generada por IA de Starmer en bikini.
Países que ya han actuado
| País | Acción | Fecha |
|---|---|---|
| Indonesia | Primer país en bloquear Grok | 10 enero 2026 |
| Malasia | Suspensión temporal de acceso | 11 enero 2026 |
| India | Orden de revisión técnica a X | 3-5 enero 2026 |
| Australia | Investigación de eSafety | Enero 2026 |
| Canadá | Investigación + proyecto de ley C-16 | Enero 2026 |
La defensa de Elon Musk (y por qué no convence)
La respuesta de Musk ha sido una mezcla de negación, culpabilización a terceros y ataques a los medios.
Sus declaraciones principales:
- "No estoy al tanto de ninguna imagen desnuda de menores generada por Grok. Literalmente cero." (14 enero)
- "Cualquiera que use Grok para hacer contenido ilegal sufrirá las mismas consecuencias que si subiera contenido ilegal ellos mismos."
- Culpó la creación de contenido a "solicitudes de usuarios" y un posible "bug" en Grok
- Llamó al algoritmo de Grok "tonto" y admitió que "necesita mejoras masivas"
Medidas implementadas por xAI:
| Fecha | Medida |
|---|---|
| 9 enero | Generación restringida a suscriptores de pago |
| 14 enero | Bloqueo de edición de imágenes en "ropa reveladora" |
| 14 enero | Geobloqueo en jurisdicciones donde es ilegal |
¿Son efectivas estas medidas? Los datos sugieren que no. Según un análisis de AI Forensics (organización europea) del 19 de enero, la "abrumadora mayoría" de las conversaciones analizadas aún mostraba desnudez o actividad sexual. Los usuarios pueden evadir restricciones accediendo a Grok directamente vía web en lugar de a través de X.
El caso Ashley St. Clair: cuando la víctima es la madre del hijo de Musk
El 15 de enero de 2026, Ashley St. Clair, de 27 años, presentó una demanda contra xAI en Nueva York. St. Clair es la madre de Romulus, uno de los hijos de Elon Musk.
Sus alegaciones son graves:
- Grok generó una imagen de ella a los 14 años alterada para mostrarla en bikini
- Se crearon imágenes de ella adulta en posiciones sexualizadas
- Aparecieron imágenes con bikini con esvásticas (St. Clair es judía)
- Grok continuó generando imágenes incluso después de que ella informara que no consentía
- X demonetizó su cuenta y removió su checkmark verificado como represalia
La respuesta de xAI fue sorprendente: contrademandó a St. Clair en Texas alegando violación de términos de servicio, reclamando $75.000 o más.
¿Qué hacen otras IAs para evitar esto?
Imagina que las herramientas de IA son coches. Algunas vienen con airbags, cinturones de seguridad y sistemas de frenado automático. Otras te dejan conducir sin ninguna protección. Grok fue diseñado sin airbags.
Así se comparan las principales plataformas:
| Plataforma | Política | Protecciones |
|---|---|---|
| DALL-E (OpenAI) | Estricta | Filtra contenido explícito; no genera figuras públicas; watermark; detecta 98.8% imágenes propias |
| Midjourney | PG-13 | Moderación automática + comunidad; eliminó tier gratuito tras incidente |
| ChatGPT+DALL-E 3 | Estricta | Bloquea imágenes de candidatos políticos |
| Claude (Anthropic) | Estricta | No genera imágenes de personas reales; énfasis en seguridad |
| Grok (xAI) | Laxa | "Modo picante" como ventaja; restricciones solo tras escándalo |
Coalition for Content Provenance and Authenticity (C2PA)
OpenAI se unió a esta coalición que incluye Adobe, BBC, Intel y Google para crear un estándar de "etiqueta nutricional" que indica si una imagen fue generada por IA. Grok no participa en esta iniciativa.
Las leyes que cambiarán el panorama
Take It Down Act (EE.UU.)
Firmada por Trump el 19 de mayo de 2025, esta ley entra en vigor el 19 de mayo de 2026 y establece:
- Plataformas deben remover contenido íntimo no consentido o deepfakes en 48 horas tras solicitud válida
- Penalidades: Hasta 2 años de prisión (adultos), 3 años (menores)
Es la primera ley federal que limita específicamente el uso dañino de IA contra individuos.
DEFIANCE Act
Aprobado por el Senado en enero de 2026, permite a individuos demandar civilmente por deepfakes íntimos no consentidos generados por IA.
Digital Services Act (UE)
El marco regulatorio europeo que requiere a plataformas abordar contenido ilegal y dañino. La penalización puede alcanzar el 6% de ingresos globales anuales.
Lo que esto significa para el futuro de la IA
El escándalo de Grok no es solo una historia sobre una empresa que se equivocó. Es un caso de estudio sobre qué pasa cuando la filosofía de "moverse rápido y romper cosas" se aplica a tecnología que puede destruir vidas.
Tres lecciones clave:
-
Los safeguards no son censura: Son protecciones básicas contra usos dañinos. ChatGPT y Claude demuestran que se puede crear IA potente Y responsable.
-
La autorregulación no funciona: xAI solo implementó restricciones después de investigaciones gubernamentales y demandas legales. Sin presión externa, el daño habría continuado.
-
La velocidad de la IA supera la de la ley: Las imágenes se generaron a 190 por minuto. Las investigaciones tardan meses. Esta asimetría requiere regulación preventiva, no reactiva.
¿Qué puedes hacer si eres víctima?
Si has sido víctima de deepfakes generados por Grok u otra IA:
- Documenta todo: Capturas de pantalla con fechas y URLs
- Reporta a la plataforma: Aunque la respuesta sea lenta, crea un registro
- Contacta a las autoridades: En EE.UU., el FBI tiene unidad de delitos informáticos; en España, la Policía Nacional tiene grupo de delitos tecnológicos
- Busca ayuda legal: Con el DEFIANCE Act y leyes estatales, las víctimas tienen más opciones que nunca
- Recursos de apoyo: StopNCII.org ayuda a remover imágenes íntimas no consentidas de múltiples plataformas
Conclusión
El escándalo de Grok es un punto de inflexión para la industria de la inteligencia artificial. Por primera vez, una empresa de IA enfrenta investigaciones coordinadas de la Unión Europea, 35 estados de EE.UU., el Reino Unido y múltiples países asiáticos simultáneamente.
Para Elon Musk, es una crisis que combina todos sus problemas habituales: reguladores enfurecidos, víctimas demandando (incluida la madre de su hijo), y una narrativa de prensa que no puede controlar con tweets.
Para el resto de nosotros, es un recordatorio de que la tecnología más avanzada requiere las protecciones más cuidadosas. La pregunta ya no es si la IA generativa puede crear deepfakes convincentes. La pregunta es quién es responsable cuando lo hace.
Y por primera vez, parece que esa responsabilidad va a tener consecuencias reales.




