Dinamarca está proponiendo una nueva legislación para enmendar su ley digital de derechos de autor, abordando la creciente amenaza de los profundos profundos generados por IA. Los cambios propuestos buscan proteger los derechos individuales con respecto a sus identidades digitales en respuesta al aumento de profundo ataques, que han resultado en pérdidas financieras significativas y la propagación de la desinformación.
Deepfakes utilizan inteligencia artificial para producir imágenes falsas realistas, videos y grabaciones de audio. La tecnología se ha empleado de varias maneras, desde crear contenido humorístico hasta perpetrar fraude financiero y difundir información engañosa. El Foro Económico MundialLa Coalición Global de Seguridad Digital está trabajando para fomentar la cooperación público-privada para combatir el contenido dañino en línea, incluidos los profundos y para mejorar la alfabetización de medios digitales.
La enmienda del gobierno danés, considerado un esfuerzo pionero en Europa, tiene como objetivo salvaguardar el control de las personas sobre sus identidades, específicamente su apariencia y voz. El gobierno tiene como objetivo presentar la enmienda en otoño, lo que indica la urgencia con la que ve el problema. La propuesta ha obtenido el apoyo de las partes cruzadas, lo que sugiere un consenso sobre la necesidad de abordar los desafíos relacionados con el defake.
Deepfakes aprovecha la tecnología AI, específicamente «aprendizaje profundo», para crear contenido manipulado o completamente fabricado. Esta tecnología puede alterar el contenido existente, como se ilustra al reemplazar la cara de un actor con otro en clips de películas. También puede generar contenido nuevo, que representa a las personas que dicen o hacen cosas que en realidad nunca hicieron. Si bien algunos usos, como el intercambio de cara en las escenas de películas, pueden parecer inofensivos, plantean preocupaciones sobre el derecho del individuo a su imagen.
En 2023, los actores estadounidenses se declararon en huelga para abogar por el control sobre el uso de sus imágenes por IA. La huelga llevó a las producciones de cine y televisión a un punto muerto. Los actores obtuvieron un compromiso de la industria de que cualquier uso futuro de IA de sus imágenes requeriría su consentimiento explícito. Este evento destaca la creciente conciencia y preocupación con respecto al uso de IA para manipular o replicar las semejanzas de las personas sin permiso.
Una amenaza significativa planteada por Deepfakes es su uso para difundir noticias falsas. Las instancias incluyen los profundos del ex presidente de los Estados Unidos Joe Biden y presidente ucraniano Volodymyr Zelenskyy. Al crear la apariencia de que los mensajes se originan en fuentes confiables, Deepfakes puede dar credibilidad a la información falsa, lo que puede influir en la opinión pública y el discurso político.
Parecido.aiLa investigación indica que el fraude financiero y el delito cibernético representan áreas de crecimiento sustanciales para las aplicaciones de Deepfake. Mientras 41% De los objetivos de Deepfake hay figuras públicas, incluidas celebridades, políticos y líderes empresariales, 34% son particulares, predominantemente mujeres y niños. Las organizaciones representan 18% de los atacados por Deepfakes.
La empresa de ingeniería del Reino Unido Arup experimentó una estafa de defake que resultó en una pérdida financiera de $ 25 millones. Los ciberdelincuentes utilizaron un clon generado por IA de un gerente senior para convencer a un empleado de finanzas de que transfiera los fondos durante una videollamada. Esta instancia ilustra el potencial de los defensores para facilitar los crímenes financieros sofisticados.
Un intento de fraude atacar Ferrari implicó el uso de una voz de CEO generada por IA Benedetto Vigna. Un empleado frustró el intento haciendo una pregunta que solo el CEO real podía responder. A BBC El periodista demostró el potencial de clonación de voz al evitar el sistema de identificación de voz de su banco utilizando una versión sintética de su propia voz. Estos ejemplos subrayan la creciente sofisticación y accesibilidad de la tecnología de profundos para fines maliciosos.
Parecido.aiInforme de seguridad de Deepfake para Q2 2025 Reveló un aumento significativo en los ataques de defake divulgados públicamente. El informe documentado 487 tales ataques, representando un Aumento del 41% en comparación con el trimestre anterior y un Aumento del 300% año a año. Los hallazgos de la compañía también indicaron que las pérdidas financieras directas resultantes de las estafas de profundos se han alcanzado casi $ 350 millones. Parecido.ai También señaló que los ataques de Deepfake se duplican cada seis meses, destacando la naturaleza creciente de la amenaza.
Parecido.ai Indica que el fraude de Deepfake es un problema global, particularmente prevalente en las regiones tecnológicamente avanzadas. Si bien los liderazgo de EE. UU. En incidentes reportados, los casos de defake profundos también están muy extendidos en Asia Pacífico y Europa, con un rápido aumento observado en África. Esta distribución global subraya la necesidad de cooperación internacional para abordar los desafíos planteados por Deepfakes.
Estados Unidos ha implementado la Ley de Take It Daward, requiriendo la eliminación de defensores dañinos dentro de 48 horas e imponer sanciones penales federales por su distribución. La Ley también exige que los sitios web públicos y las aplicaciones móviles establezcan informes y procedimientos de derribo. Los legisladores estatales en Tennessee, Louisiana y Florida han promulgado sus propias leyes de Deepfake, demostrando un enfoque multifacético para abordar el problema.
La Ley de Servicios Digitales de la Unión Europea (DSA), que entró en vigencia en 2024, tiene como objetivo evitar actividades ilegales y dañinas en línea, incluida la propagación de la desinformación. La DSA ha colocado a los proveedores de servicios en línea bajo un mayor escrutinio, y varias investigaciones formales para el incumplimiento ya están en marcha. El Reino Unido ha adoptado un enfoque similar con la Ley de Seguridad en línea, implementada a principios de 2025.
La enmienda danesa bajo consideración permite a las personas afectadas por el contenido de Deepfake solicitar su eliminación. Los artistas pueden exigir una compensación por el uso no autorizado de su imagen. El derecho a la compensación se extendería por 50 años más allá de la muerte del artista. Las plataformas en línea como Meta y X podrían enfrentar multas sustanciales si el proyecto de ley enmendado se aprueba según lo propuesto. El proyecto de ley establecería los fundamentos legales para buscar daños bajo la ley danesa, aunque no prevé directamente la compensación o los cargos penales.
Con Dinamarca celebrando la presidencia del Consejo de la Unión Europea, tiene como objetivo priorizar los medios y la cultura dentro de la democracia europea a través de iniciativas como el Escudo de Democracia Europea. Se espera que la enmienda a la ley nacional de derechos de autor envíe señales políticas sólidas tanto a Bruselas como a la UE en general. Esta acción refleja el compromiso de Dinamarca de abordar los desafíos planteados por Deepfakes y promover un entorno en línea más seguro.
El Foro Económico MundialLa Coalición Global de Seguridad Digital tiene como objetivo promover la cooperación interregional para la seguridad en línea. Esto incluye acelerar la colaboración pública -privada para abordar contenido dañino, incluidos Deepfakes. La coalición también facilita el intercambio de mejores prácticas en la regulación de seguridad en línea y apoya los esfuerzos para mejorar la alfabetización de medios digitales. Al fomentar la colaboración y el intercambio de conocimientos, la coalición tiene como objetivo mejorar los esfuerzos globales para combatir los defectos y promover un entorno digital más seguro.





