A medida que avanza la tecnología de Deepfake, las preocupaciones sobre la información errónea y el robo de identidad están aumentando, destacados por un reciente estudio de IProov que revela que la mayoría de las personas luchan por distinguir entre contenido real y generado por IA.
El estudiar involucró a 2.000 participantes en todo el Reino Unido y EE. UU., Exponiéndolos a una combinación de imágenes y videos genuinos y profundos. Al alarmante, solo el 0.1% de los participantes, por un total de solo dos individuos, podrían diferenciar con precisión entre los estímulos reales y de profundos.
Los adultos mayores surgieron como particularmente vulnerables al engaño generado por IA. Aproximadamente el 30% de los participantes de 55-64 años y el 39% de los mayores de 65 años informaron que nunca habían oído hablar de Deepfakes antes del estudio. Aunque los participantes más jóvenes (de 18 a 34 años) mostraron una mayor confianza en su capacidad para detectar los defectos profundos, su rendimiento real no reflejó la mejora.
Desafíos de detección de Deepfake
El estudio indicó que la detección de videos de Deepfake fue significativamente más desafiante que identificar imágenes. Los participantes tenían un 36% menos de probabilidades de identificar con precisión un video sintético en comparación con una imagen sintética, lo que generó preocupaciones con respecto al potencial de fraude basado en video, como suplantación durante las videollamadas.
Las plataformas de redes sociales se identificaron como fuentes principales de contenido de Deepfake. Casi la mitad de los participantes (49%) citaron meta plataformas, incluidas Facebook e Instagram, como los sitios más comunes para los defensores profundos, mientras que el 47% apuntaba a Tiktok.
Andrew Bud, fundador y CEO de IProov, comentó sobre los hallazgos, señalando la mayor vulnerabilidad de organizaciones y consumidores al fraude de identidad en la era de Deepfake. Dijo que «los delincuentes están explotando la incapacidad de los consumidores para distinguir imágenes reales de las falsas, poniendo en riesgo la información personal y la seguridad financiera». A pesar de los resultados alarmantes, el estudio encontró que solo el 20% de los encuestados informaría un sospechado de Deepfake en línea.
A medida que los defectos profundos se vuelven cada vez más sofisticados, IProov sugiere que la percepción humana por sí sola es insuficiente para una detección confiable. Bud enfatizó la necesidad de soluciones de seguridad biométrica con la detección de la vida para combatir la amenaza que se plantea al convencer al material de defake profundo.
La investigación de IProov muestra una necesidad apremiante de que las organizaciones protejan a sus clientes integrando medidas de seguridad sólidas. Bud cree que el uso de la biometría facial con la detección de la vida ofrece un factor de autenticación confiable que prioriza tanto la seguridad como el control individual.
Según el estudio, solo el 22% de los consumidores habían oído hablar de Deepfakes antes de participar. Además, muchas personas exhibieron un exceso de confianza significativo con respecto a sus habilidades de detección, con más del 60% creyendo que podían identificar a los profundos, a pesar de que la mayoría se desempeña mal. Entre los adultos más jóvenes, esta falsa sensación de seguridad era especialmente frecuente.
Los hallazgos también indicaron una disminución en la confianza hacia las plataformas de redes sociales después de que los usuarios se dieron cuenta de Deepfakes, con un 49% informando una disminución de la confianza. Mientras tanto, el 74% de los participantes expresaron su preocupación por las ramificaciones sociales de los profundos, particularmente la propagación de la información errónea, que era una preocupación principal para el 68% de los encuestados. Esta aprensión fue notablemente fuerte entre las generaciones mayores, donde hasta el 82% de las personas de 55 años o más expresaron temores con respecto a la diseminación de información falsa.
Por qué los modelos de IA pequeños no pueden mantenerse al día con los grandes
Menos de un tercio de los encuestados (29%) indicaron que no tomarían medidas al encontrarse con un presunto defake profundo. La falta de compromiso se debe en parte al 48% de los encuestados que afirman que no saben cómo informar los defensores profundos, mientras que una cuarta parte admitió la indiferencia hacia los sospechosos de profundos. Solo el 11% analiza críticamente las fuentes y el contexto para determinar la autenticidad de la información, creando un paisaje donde muchas personas siguen siendo altamente susceptibles al engaño.
El profesor Edgar Whitley, un experto en identidad digital, advirtió que las organizaciones no pueden confiar únicamente en el juicio humano para detectar deffaces profundos y deben explorar métodos alternativos de autenticación del usuario.
La creciente prevalencia de Deepfakes plantea desafíos significativos en el panorama digital. El informe de inteligencia de amenazas 2024 de IPROOV indicó un asombroso aumento del 704% en los swaps faciales, enfatizando su papel como herramientas para los ciberdelincuentes que buscan acceso no autorizado a datos confidenciales. Esta tendencia resalta la necesidad urgente de una mayor conciencia y soluciones tecnológicas para frustrar las amenazas relacionadas con el defake.
Crédito de imagen destacado: Kerem Gülen/ideograma