Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
No Result
View All Result

Informes de consumo: las herramientas de clonación de voz de IA casi no tienen controles de seguridad

byKerem Gülen
11 marzo 2025
in Artificial Intelligence, Cybersecurity, News
Home Artificial Intelligence

Consumer Reports revela que varias herramientas populares de clonación de voz carecen de salvaguardas adecuadas contra el fraude o el abuso, destacando los riesgos potenciales asociados con la tecnología de voz de IA. El estudio examinó los productos de seis compañías: Descript, ElevenLabs, LoVo, Playht, Semulble AI y Spite.

La investigación encontró que solo el descripción y el parecido a la IA han implementado medidas significativas para evitar el mal uso. Otras herramientas simplemente requieren que los usuarios confirmen que tienen el derecho legal de clonar una voz, a menudo a través de la auto atestación. Grace Gedye, analista de políticas de Informes de consumoadvirtió que sin los mecanismos de seguridad adecuados, las herramientas de clonación de voz de IA podrían «sobrealimentar» las estafas de suplantación.

La tecnología de clonación de voz de IA ha avanzado significativamente, capaz de imitar el discurso de una persona con muestras de audio mínimas. Un incidente notable ocurrió durante las primarias democráticas el año pasado, donde Robocalls con un falso Joe Biden engañó a los votantes. Esto dio como resultado una multa de $ 6 millones para el consultor político detrás del esquema, y ​​la Comisión Federal de Comunicaciones Posteriormente prohibió a Robocalls generados por IA.

El análisis de las seis herramientas de clonación de voz de IA indicó que cinco tienen salvaguardas omitibles, lo que facilita clonar las voces sin consentimiento. El software de detección de audio Deepfake a menudo lucha por distinguir entre voces genuinas y sintéticas, lo que complica el problema. La IA generativa, que imita las características humanas como la voz, tiene una regulación federal limitada, con la mayoría de las prácticas éticas impulsadas por las propias empresas. Una orden ejecutiva firmada por el presidente Biden en 2023 incluyó demandas de seguridad para IA, pero una revocación posterior del ex presidente Trump desmanteló esas disposiciones.


La voz de Ai de Sesame es tan real, es inquietante


La tecnología de clonación de voz utiliza muestras de audio de individuos para crear voces sintéticas. Sin salvaguardas, cualquiera puede cargar audio desde varias plataformas, como Tiktok o YouTube, y hacer que el servicio replique esa voz. Cuatro de los servicios examinados (ElevenLabs, Speatifify, Playht y LoVO, simplemente requieren que los usuarios marquen una casilla que afirme la autorización del clon de voz. Se asemeja a la IA, al tiempo que insistió en la grabación de audio en tiempo real, fue eludido por los informes de consumo, que reprodujo audio grabado durante la verificación.

Solo Descript ofreció una salvaguardia algo efectiva, que requiere que los usuarios registren una declaración de consentimiento específica. Este método es difícil de falsificar, excepto cuando se usa otro servicio para clonar la voz. Los seis servicios son accesibles públicamente en sus respectivos sitios web, con once y se asemejan a tarifas de cobro de AI de $ 5 y $ 1, respectivamente, para crear clones de voz personalizados, mientras que los demás son libres de usar. Algunas compañías reconocieron el potencial de abuso y informaron haber implementado salvaguardas más fuertes para evitar la creación de defectos y suplantación de voz.

Existen aplicaciones legítimas para la clonación de voz de IA, como ayudar a las personas con discapacidades y proporcionar traducciones de audio. Sin embargo, los riesgos siguen siendo significativos. Sarah Myers West, directora ejecutiva del Instituto AI Now, señaló que esta tecnología podría facilitar el fraude, las estafas y la desinformación, incluida la suplantación de figuras influyentes.

La investigación sobre la prevalencia de IA en estafas de audio es limitada. La Comisión Federal de Comercio tiene indicado Esa IA puede estar empleada en «estafas de abuelos», donde los delincuentes se hacen pasar por miembros de la familia en apuros. Además, algunos músicos han enfrentado desafíos debido a que las voces clonadas se utilizan para la producción musical no autorizada, como lo demuestran una canción viral 2023 atribuida falsamente a Drake y The Weeknd.


Crédito de imagen destacado: Bruno Cervera/Unsplash

Tags: AIvoz

Related Posts

Alphaevolve: Cómo la nueva IA de Google apunta a la verdad con la autocorrección

Alphaevolve: Cómo la nueva IA de Google apunta a la verdad con la autocorrección

15 mayo 2025
Tiktok está implementando textos alternativos generados por AI para una mejor acesibilidad

Tiktok está implementando textos alternativos generados por AI para una mejor acesibilidad

15 mayo 2025
La IA de YouTube ahora sabe cuándo estás a punto de comprar

La IA de YouTube ahora sabe cuándo estás a punto de comprar

15 mayo 2025
El CEO de Soundcloud admite que los términos de IA no eran lo suficientemente claros, emiten nuevos compromisos

El CEO de Soundcloud admite que los términos de IA no eran lo suficientemente claros, emiten nuevos compromisos

15 mayo 2025
¿Listo para un chatgpt que realmente te conozca?

¿Listo para un chatgpt que realmente te conozca?

14 mayo 2025
Lightricks presenta el modelo de video 13B LTX para la generación de videos HQ AI

Lightricks presenta el modelo de video 13B LTX para la generación de videos HQ AI

14 mayo 2025

Recent Posts

  • El impacto de las telas inteligentes en el rendimiento de la ropa táctica
  • Databricks apuesta grande en Postgres sin servidor con su adquisición de neón de $ 1 mil millones
  • Alphaevolve: Cómo la nueva IA de Google apunta a la verdad con la autocorrección
  • Tiktok está implementando textos alternativos generados por AI para una mejor acesibilidad
  • Trump obliga a Apple a repensar su estrategia de iPhone de la India

Recent Comments

No hay comentarios que mostrar.
Dataconomy ES

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.