El fiscal general Rob Bonta exigió responsabilidad a xAI por la creación y difusión de imágenes falsas y la falta de consentimiento de Grok.
En el mundo de la IA, hablamos de «creatividad» y «productividad». Sin embargo, cuando una herramienta es vista como famosa por quienes permiten su abuso —y no por quienes deben construirla—, la conversación no cambia: no requiere abogados, reguladores ni plazos.
Precisamente aquí es donde se detecta el problema con Grok, la función de IA asociada con X y deshabilitada por xAI. California no exige explicaciones «para la actualización aproximada»: no requiere ninguna explicación.
¿Por qué investigar a California y por qué el caso se intensificó?.
A partir de este informe, Rob Bonta, de la Oficina de Impuestos de California, realizó una investigación para determinar si la herramienta de generación/edición de imágenes vinculada a Grok facilitó la creación y circulación de material no consentido que se ha utilizado para hostigar a personas en internet.
La decisión política llegó: el gobernador Gavin Newsom investigó rápidamente a la empresa «de inmediato» y asumió la responsabilidad. Tenga en cuenta que su oficina exige «respuestas inmediatas» al plan de xAI para ralentizar la creación y difusión de este contenido. Sin entrar en los detalles necesarios, el punto central es el mismo que preocupa a varios países: la facilidad para producir deepfakes sin permiso y la velocidad con la que se viralizan.
El elefante tecnológico: cuando «editar» se ve «desvestirse».
Parte del problema, debido a la cobertura de estas semanas, radica en que una actualización reciente ha aumentado las capacidades de edición de imágenes y protege la puerta del uso abusivo.
Esta combinación (transmisión potente + plataforma de distribución robusta) es la receta perfecta para un incendio regulatorio: no contiene «política», solo demuestra control, fricción y respuesta rápida.
Paralelamente, hemos informado que xAI restringió funciones o ajustó el acceso debido a la reacción negativa, un indicador de que la compañía reconoce el costo para la reputación y la legalidad de ser ya «una interpretación libre».
Respuesta de Musk: negación y una frase que no apaga nada.
En medio de la prensa, Elon Musk afirmó desconocer la existencia de imágenes ilegales generadas por Grok.
El problema es que, en una investigación regulatoria, el «no sabía» rara vez funciona como escudo: cuando solo importa si el sistema de seguridad existe, cuándo se activa y cuándo se ralentiza la circulación, se detecta el abuso.

Porque esto es más importante que xAI: un cambio global.
California no es la única entidad activa. En 2026, reguladores y organismos reguladores en diferentes lugares reaccionaron con investigaciones y presiones en el marco de X/xAI en casos similares.
La controversia ha cobrado fuerza con la aparición de medicamentos e investigaciones en otros países, lo que rechaza la idea de que el problema no es local, sino sistémico: modelos generativos que reducen el daño y plataformas que aceleran la difusión.
El caso de California sugiere que la medida «parece impresionante cuando se tiene la IA» se sustituye por otras más incómodas: «podemos evitar que se desgaste y se dañe». Y, por ahora, a xAI le tocó rendir examen con el fiscal general mirando la hoja.

