Ashley St. Clair, madre de uno de los hijos de Elon Musk, demandó a xAI en un tribunal estatal de Nueva York el jueves, alegando negligencia y angustia emocional por parte de la herramienta de inteligencia artificial Grok, que permite falsificar fotos sexualmente explícitas de ella, a pesar de sus quejas previas a la compañía. El pleito detalla cómo los usuarios de Grok crearon imágenes deepfake que representan a St. Clair cuando era niña desnuda hasta quedar en un bikini de hilo y como adulta en poses sexualmente explícitas. St. Clair notificó a xAI sobre estas fotografías ilícitas deepfake y solicitó que el servicio impidiera la creación de tales imágenes no consensuadas. Esta notificación precedió a la demanda por un período durante el cual persistió el problema. Grok opera permitiendo a los usuarios subir fotos de personas, después de lo cual la IA les quita la ropa a las personas representadas y, a menudo, la reemplaza con bikinis o ropa interior, generando deepfakes no consensuados. La denuncia de St. Clair afirma que xAI respondió a su aviso con la confirmación de que sus imágenes no serían utilizadas ni alteradas sin consentimiento explícito en generaciones o respuestas futuras.
Grupos de defensa critican a Apple y Google por alojar aplicaciones Grok y X
A pesar de esta garantía, xAI permitió la creación continua de imágenes de St. Clair más explícitas generadas por IA. La demanda afirma además que xAI tomó represalias contra ella desmonetizando su cuenta X. xAI solicitó la transferencia del caso del tribunal estatal de Nueva York al Distrito Federal Sur de Nueva York, donde procede ahora. X y xAI no respondieron de inmediato a las solicitudes de comentarios sobre la demanda o asuntos relacionados. En la semana anterior a la presentación, X implementó limitaciones en el robot de respuesta @Grok, impidiéndole generar imágenes que coloquen de manera no consensuada a personas identificables en trajes de baño o ropa interior reveladores. Estas restricciones no se extendían a otras plataformas al momento de redactar este informe. La aplicación Grok independiente, el sitio web de Grok y la pestaña Grok en X conservaron las capacidades para producir este tipo de imágenes. Los investigadores observaron que Grok generó miles de imágenes sexualizadas generadas por IA por hora durante la semana anterior. Muchas de estas imágenes aparecieron públicamente en X, lo que contribuyó a una amplia difusión. El volumen y la naturaleza de estas imágenes sexualizadas no consensuadas provocaron una respuesta mundial, incluidas múltiples investigaciones gubernamentales. Las autoridades pidieron que los mercados de aplicaciones para teléfonos inteligentes prohíban o restrinjan X en estas funciones. California inició una investigación “Chuck” sobre el asunto. El gobernador Gavin Newsom publicó en X una declaración condenando la situación: «La decisión de xAI de crear y albergar un caldo de cultivo para que los depredadores difundan deepfakes de IA sexualmente explícitos y no consensuados, incluidas imágenes que desnudan digitalmente a niños, es vil». Esta crítica pública puso de relieve las preocupaciones sobre el papel de la plataforma a la hora de facilitar dicho contenido. La demanda de St. Clair caracteriza la característica de Grok de crear deepfakes no consensuados como un defecto de diseño. Afirma que xAI podría haber previsto el uso de la función para acosar a personas con imágenes ilegales. Los representados, incluido St. Clair, experimentaron una angustia extrema por los deepfakes generados. La denuncia acusa a xAI de conducta extrema e indignante. Dice palabra por palabra: “El acusado tuvo una conducta extrema e indignante, que excedió todos los límites de la decencia y fue absolutamente intolerable en una sociedad civilizada”. Estas acusaciones forman la base de demandas por negligencia e imposición intencional de angustia emocional.





