Gate News Noticias, el 25 de marzo, la ciudad de Baltimore, EE. UU., presentó una demanda formal contra X Company, propiedad de Elon Musk, así como contra xAI y SpaceX, acusándolos de desarrollar la herramienta de IA generativa Grok, que supuestamente genera imágenes sexualizadas sin consentimiento, incluso contenido que involucra a menores, violando las leyes de protección al consumidor locales. Este caso se considera una prueba importante en la regulación de la inteligencia artificial a nivel local, en un contexto donde aún no existe legislación federal específica sobre IA.
La demanda señala que Grok tiene la capacidad de alterar imágenes de personas reales con muy poca información, incluyendo funciones como “desvestir”, lo que podría causar daños graves a la privacidad y la salud mental de los usuarios. La firma legal DiCello Levitt, que representa a la parte demandante, afirmó que el diseño y despliegue del sistema presentan riesgos evidentes, sin que se hayan implementado medidas restrictivas adecuadas. El alcalde de Baltimore, Brandon M. Scott, enfatizó que el contenido de deepfake que involucra a menores puede causar daños duraderos.
En términos legales, Ishita Sharma, socia de Fathom Legal, señaló que lo crucial en este caso es determinar la responsabilidad del sistema de IA. Si el tribunal considera que Grok es un “creador activo de contenido” y no una herramienta neutral, xAI podría enfrentar una responsabilidad legal mayor. Esta decisión podría redefinir los límites legales para las empresas de IA en la generación de contenido.
La demanda cita datos que indican que, en un corto período desde finales de diciembre de 2025 hasta principios de enero de 2026, Grok generó entre 1.8 y 3 millones de imágenes sexualizadas, de las cuales aproximadamente 23,000 involucraban a menores. Además, la cantidad de imágenes generadas en la plataforma aumentó significativamente tras la interacción pública de Musk, lo que intensificó la presión regulatoria.
Actualmente, varias regiones en EE. UU. y Europa están investigando a Grok, y los casos relacionados aún están en curso. El interés del mercado se ha desplazado de la innovación tecnológica hacia la regulación y el control de riesgos, y el resultado final de este caso podría servir como un precedente importante para la supervisión de la generación de contenido por IA. (Decrypt)