El FBI ha emitido un servicio público. anuncio instando a los usuarios de teléfonos inteligentes a crear una palabra clave secreta para combatir las estafas generadas por IA. Esta recomendación se produce cuando los informes revelan un aumento en el fraude cibernético que aprovecha la IA generativa para mejorar las tácticas engañosas. Los expertos en seguridad dicen que estas herramientas pueden manipular las tácticas de comunicación, dificultando distinguir mensajes genuinos de falsificaciones. Como precaución, el FBI también ha aconsejado a los usuarios que dejen de utilizar los servicios de comunicación enriquecidos (RCS) para textos multiplataforma, ya que no ofrecen cifrado de extremo a extremo.
El FBI advierte a los usuarios de teléfonos inteligentes sobre el aumento de estafas generadas por IA
En la alerta de servicio público número I-120324-PSA, el FBI informó que los ciberdelincuentes utilizan cada vez más la IA generativa en esquemas de phishing. Estos avances permiten a los atacantes producir correos electrónicos y mensajes realistas, reduciendo así la posibilidad de que las víctimas potenciales los reconozcan como fraudulentos. Por ejemplo, la IA puede generar correctamente contenido que normalmente podría contener errores ortográficos o gramaticales, que alguna vez fueron signos reveladores de estafas. Como resultado, las víctimas pueden volverse cada vez más vulnerables a revelar información confidencial.
El FBI describió varias formas alarmantes en las que la IA generativa puede facilitar los ciberataques. Estos incluyen generar fotografías que creen una identidad convincente, usar imágenes de celebridades para promover actividades fraudulentas y generar clips de audio que imiten a sus seres queridos solicitando ayuda financiera. Además, la tecnología de inteligencia artificial es capaz de producir videoconferencias en tiempo real con personas que afirman ser ejecutivos de una empresa o personal encargado de hacer cumplir la ley, lo que desdibuja aún más la línea entre la realidad y el engaño.
Las fuerzas del orden enfrentan desafíos con el reinicio automático de los iPhone
Para protegerse contra estas amenazas, el FBI enfatiza la importancia de la verificación. Se recomienda a los usuarios que cuelguen si reciben llamadas sospechosas y que verifiquen de forma independiente la identidad de la persona que llama buscando y utilizando información de contacto verificada. Crear una palabra secreta acordada por los miembros de la familia puede servir como medida de protección contra llamadas de emergencia fraudulentas. Esta simple precaución puede garantizar que cualquier solicitud urgente de asistencia pueda ser validada.
Los informes en evolución indican que la IA generativa se utiliza cada vez más en diversas estafas cibernéticas, desde fraude de soporte técnico hasta fraude bancario. Los investigadores han notado una tendencia en las tácticas impulsadas por la IA que giran hacia comportamientos manipuladores en las comunicaciones, especialmente a través de teléfonos inteligentes. Esto indica un cambio significativo en el panorama de las amenazas a la ciberseguridad.
La IA genética también está desdibujando las líneas de autenticidad en las plataformas de comunicación populares. Debido a las vulnerabilidades inherentes a sistemas como RCS, los usuarios de Apple y Android deben tener especial cuidado al tratar con mensajes de texto multiplataforma, que ahora carecen de un cifrado seguro garantizado. En consecuencia, el uso de servicios de mensajería cifrada, como WhatsApp, se ha vuelto más crítico que nunca.
- Texto generado por IA:
Los delincuentes explotan el texto generado por IA para convencer a los esquemas de fraude, incluida la ingeniería social, el phishing, las estafas de inversión y el fraude con criptomonedas. Utilizan herramientas de inteligencia artificial para una comunicación más rápida y sin errores, creando perfiles falsos, sitios web fraudulentos e incorporando chatbots.
- Imágenes generadas por IA:
La IA generativa crea imágenes realistas para perfiles de redes sociales falsos, identificaciones fraudulentas y suplantaciones. Se utiliza para estafas de caridad, manipulación del mercado y sextorsión, entre otros esquemas fraudulentos.
- Audio generado por IA:
La clonación vocal permite a los estafadores hacerse pasar por seres queridos o figuras públicas, engañando a las víctimas para que reciban asistencia financiera, pagos de rescate o acceso no autorizado a cuentas bancarias.
- Vídeos generados por IA:
Los videos generados por IA ayudan a los estafadores a hacerse pasar por figuras de autoridad o materiales promocionales falsos, demostrando así “autenticidad” en estafas en línea y tácticas de ingeniería social.
- Consejos de protección:
Utilice palabras secretas con la familia, analice los medios en busca de inconsistencias, limite el contenido personal en línea, verifique las identidades de forma independiente y nunca comparta información confidencial ni envíe dinero a personas no verificadas. Las víctimas deben denunciar las estafas en el sitio web IC3 del FBI con información detallada.
Crédito de la imagen destacada: David Trinks