Según un reciente Tiempos financieros Según el informe, los ejecutivos corporativos son cada vez más el objetivo de sofisticadas estafas de phishing generadas por robots de inteligencia artificial (IA), según lo analizado por grandes empresas como Beazley y eBay. La prevalencia de estos ataques hiperpersonalizados plantea importantes preocupaciones de seguridad.
Los ejecutivos corporativos se enfrentan a crecientes estafas de phishing impulsadas por IA
Kirsty Kelly, directora de seguridad de la información de Beazley, enfatizó la gravedad del problema y afirmó: «Esto está empeorando y se está volviendo muy personal, y es por eso que sospechamos que la IA está detrás de gran parte de esto». Señaló que estas estafas utilizan amplia información extraída sobre personas mediante análisis de IA de perfiles en línea.
El rápido desarrollo de la IA le permite procesar grandes cantidades de datos, imitando el tono y el estilo de individuos o empresas, lo que hace que las estafas de phishing sean convincentemente realistas. Los expertos en ciberseguridad, incluida Nadezda Demidova de eBay, destacaron que la disponibilidad de herramientas de inteligencia artificial generativa ha reducido significativamente la barrera para participar en delitos cibernéticos avanzados, contribuyendo a un aumento notable en el volumen de estafas de phishing «pulidas y muy específicas».
Más del 90 por ciento de los ciberataques exitosos comienzan con un correo electrónico de phishingsegún la Agencia de Seguridad de Infraestructura y Ciberseguridad de EE. UU. Se proyecta que el costo promedio global de una filtración de datos aumentará casi un 10 por ciento a 4,9 millones de dólares en 2024, según IBM, lo que refleja los crecientes riesgos financieros asociados con estos ataques.
La eficacia de la IA se extiende a la elaboración de estafas de compromiso de correo electrónico empresarial, un tipo de ataque de phishing sin malware en el que los estafadores engañan a los destinatarios para que transfieran fondos o compartan información confidencial. El FBI informó que estas estafas han costado a las víctimas en todo el mundo más de 50 mil millones de dólares desde 2013.
Sean Joyce, líder global de seguridad cibernética de PwC, señaló que la IA se utiliza para identificar vulnerabilidades tanto en el código como en la cadena humana. Además, es más probable que las estafas de phishing generadas por IA eludan los filtros de correo electrónico corporativo y la capacitación en ciberseguridad. Demidova señaló que los filtros estándar, que normalmente bloquean los intentos de phishing masivo, pueden tener dificultades contra las estafas redactadas dinámicamente y generadas en rápida sucesión por la IA.
Crédito de la imagen destacada: Kerem Gülen/A mitad del viaje