La inteligencia artificial está cambiando rápidamente la forma en que interactuamos con la tecnología, y las grandes empresas tecnológicas están participando en la elaboración de nuevas normas para mantenerse al día. Empresas como OpenAI, Adobe y Microsoft están apoyando un nuevo proyecto de ley de California que dejaría claro cuándo el contenido es creado por IA. Estas empresas creen que es importante que las personas sepan cuándo ven o escuchan algo creado por una computadora, no por un humano. Al mismo tiempo, Elon Musk está apoyando otro proyecto de ley de California que tiene como objetivo mantener la seguridad de la IA al exigir salvaguardas en los grandes modelos de IA. Entonces, ¿qué quieren realmente estas empresas y personas, y por qué? Exploremos los últimos movimientos en la regulación de la IA y lo que significan para el futuro.
¿Qué quieren OpenAI, Adobe y Microsoft?
De acuerdo a Crisis tecnológicagrandes empresas tecnológicas como IA abierta, Adobey Microsoft Ahora están respaldando un proyecto de ley de California que exigirá etiquetas en el contenido generado por IA. Este proyecto de ley, conocido como AB 3211Está previsto que la votación final se celebre en agosto.

La AB 3211 pretende dejar claro cuándo las fotos, los vídeos y los clips de audio son creados por IA. Exigirá que estos elementos generados por IA tengan marcas de agua en sus metadatos. Si bien muchas empresas de IA ya utilizan marcas de agua, a menudo están ocultas en los metadatos, que la mayoría de las personas no revisan. El nuevo proyecto de ley también exige que las grandes plataformas en línea, como Instagram y X (anteriormente Twitter), muestren estas etiquetas de una manera que sea fácil de ver y comprender para todos.
OpenAI, Adobe y Microsoft forman parte de un grupo llamado Coalición para la Procedencia y Autenticidad del Contenido. Este grupo ayudó a desarrollar los metadatos de C2PA, un estándar ampliamente utilizado para etiquetar el contenido de IA. Si bien un grupo comercial que representa a estas empresas se opuso a la AB 3211 en abril, calificándola de “impracticable” y “demasiado onerosa”, los cambios recientes al proyecto de ley parecen haber obtenido su apoyo.
¿Qué quiere Elon Musk?
En un tema diferente pero relacionado, Elon Musk ha mostrado su apoyo a otro proyecto de ley de California, el SB 1047. Este proyecto de ley exigiría a los creadores de modelos de IA muy grandes que establezcan salvaguardas para evitar que sus modelos causen daños graves. Musk, que tiene una gran empresa de IA llamada xAIcree que el proyecto de ley es necesario y ha argumentado que es importante que la IA esté regulada al igual que otras tecnologías potencialmente riesgosas.
Es una decisión difícil y molestará a algunas personas, pero, considerando todo, creo que California probablemente debería aprobar el proyecto de ley de seguridad de IA SB 1047.
Durante más de 20 años, he sido un defensor de la regulación de la IA, del mismo modo que regulamos cualquier producto o tecnología que suponga un riesgo potencial…
— Elon Musk (@elonmusk) 26 de agosto de 2024
A pesar del apoyo de Musk, OpenAI se ha opuesto públicamente a la SB 1047 y está apoyando un proyecto de ley diferente. Estas medidas ponen de relieve el debate en curso sobre la mejor manera de regular la tecnología de IA y garantizar su uso seguro y ético. A medida que California avanza con estas nuevas normas, la industria tecnológica estará atenta para ver cómo afectarán al futuro de la IA.
Crédito de la imagen destacada: Eray Eliaçik/Bing