Consumer Reports revela que varias herramientas populares de clonación de voz carecen de salvaguardas adecuadas contra el fraude o el abuso, destacando los riesgos potenciales asociados con la tecnología de voz de IA. El estudio examinó los productos de seis compañías: Descript, ElevenLabs, LoVo, Playht, Semulble AI y Spite.
La investigación encontró que solo el descripción y el parecido a la IA han implementado medidas significativas para evitar el mal uso. Otras herramientas simplemente requieren que los usuarios confirmen que tienen el derecho legal de clonar una voz, a menudo a través de la auto atestación. Grace Gedye, analista de políticas de Informes de consumoadvirtió que sin los mecanismos de seguridad adecuados, las herramientas de clonación de voz de IA podrían «sobrealimentar» las estafas de suplantación.
La tecnología de clonación de voz de IA ha avanzado significativamente, capaz de imitar el discurso de una persona con muestras de audio mínimas. Un incidente notable ocurrió durante las primarias democráticas el año pasado, donde Robocalls con un falso Joe Biden engañó a los votantes. Esto dio como resultado una multa de $ 6 millones para el consultor político detrás del esquema, y la Comisión Federal de Comunicaciones Posteriormente prohibió a Robocalls generados por IA.
El análisis de las seis herramientas de clonación de voz de IA indicó que cinco tienen salvaguardas omitibles, lo que facilita clonar las voces sin consentimiento. El software de detección de audio Deepfake a menudo lucha por distinguir entre voces genuinas y sintéticas, lo que complica el problema. La IA generativa, que imita las características humanas como la voz, tiene una regulación federal limitada, con la mayoría de las prácticas éticas impulsadas por las propias empresas. Una orden ejecutiva firmada por el presidente Biden en 2023 incluyó demandas de seguridad para IA, pero una revocación posterior del ex presidente Trump desmanteló esas disposiciones.
La voz de Ai de Sesame es tan real, es inquietante
La tecnología de clonación de voz utiliza muestras de audio de individuos para crear voces sintéticas. Sin salvaguardas, cualquiera puede cargar audio desde varias plataformas, como Tiktok o YouTube, y hacer que el servicio replique esa voz. Cuatro de los servicios examinados (ElevenLabs, Speatifify, Playht y LoVO, simplemente requieren que los usuarios marquen una casilla que afirme la autorización del clon de voz. Se asemeja a la IA, al tiempo que insistió en la grabación de audio en tiempo real, fue eludido por los informes de consumo, que reprodujo audio grabado durante la verificación.
Solo Descript ofreció una salvaguardia algo efectiva, que requiere que los usuarios registren una declaración de consentimiento específica. Este método es difícil de falsificar, excepto cuando se usa otro servicio para clonar la voz. Los seis servicios son accesibles públicamente en sus respectivos sitios web, con once y se asemejan a tarifas de cobro de AI de $ 5 y $ 1, respectivamente, para crear clones de voz personalizados, mientras que los demás son libres de usar. Algunas compañías reconocieron el potencial de abuso y informaron haber implementado salvaguardas más fuertes para evitar la creación de defectos y suplantación de voz.
Existen aplicaciones legítimas para la clonación de voz de IA, como ayudar a las personas con discapacidades y proporcionar traducciones de audio. Sin embargo, los riesgos siguen siendo significativos. Sarah Myers West, directora ejecutiva del Instituto AI Now, señaló que esta tecnología podría facilitar el fraude, las estafas y la desinformación, incluida la suplantación de figuras influyentes.
La investigación sobre la prevalencia de IA en estafas de audio es limitada. La Comisión Federal de Comercio tiene indicado Esa IA puede estar empleada en «estafas de abuelos», donde los delincuentes se hacen pasar por miembros de la familia en apuros. Además, algunos músicos han enfrentado desafíos debido a que las voces clonadas se utilizan para la producción musical no autorizada, como lo demuestran una canción viral 2023 atribuida falsamente a Drake y The Weeknd.
Crédito de imagen destacado: Bruno Cervera/Unsplash