Un informe alarmante de Kela Research and Strategy Ltd. Today documenta un aumento del 200% en las menciones de herramientas de inteligencia artificial maliciosas en los foros de delitos cibernéticos hasta 2024, ilustrando cuán rápidamente se están adoptando ciberdelincuentes y tácticas de IA. Los hallazgos se describieron en el informe de amenaza de IA 2025 de Kela: cómo los cibercriminales están armando la tecnología de IA.
El informe se basa en datos de la propia plataforma de recolección de inteligencia de Kela, que analiza la actividad del delito cibernético en foros web oscuros, canales de telegrama y a través del seguimiento del comportamiento del actor de amenazas.
Más allá del aumento de las menciones de herramientas de IA maliciosas, el informe señala un aumento del 52% en las discusiones sobre jailbreaks de IA durante el año pasado. Se informa que los actores del delito cibernético refinan continuamente las técnicas de jailbreak de IA para evitar las restricciones de seguridad en los sistemas públicos de IA.
Los actores de amenaza están distribuyendo y monetizando de manera proactiva lo que Kela define como «herramientas de IA oscura», que abarca modelos de jailbreak y aplicaciones maliciosas especializadas, como WORMGPT y Fraudgpt. Estas herramientas están diseñadas para ejecutar acciones de delitos cibernéticos como el phishing, la formación de malware y el fraude financiero, que generalmente se llevan a cabo a gran escala.
Los sistemas de IA están diseñados para eliminar las restricciones de seguridad y agregar funcionalidades personalizadas, reduciendo la barrera para que los atacantes sin experiencia ejecuten ataques sofisticados a escala.
En el ámbito del phishing, los expertos señalan que los actores de amenazas están aprovechando la IA generativa para crear un fuerte contenido de ingeniería social, mejorando tales esquemas con audio y video de Deepfake. Esto mejora la capacidad de los ciberdelincuentes para hacerse pasar por ejecutivos y engañar a los empleados para aprobar las transacciones fraudulentas.
Kela también observó que la IA ha acelerado el desarrollo de malware, lo que permite la creación de ransomware e inftealers altamente evasivos. Este desarrollo plantea dificultades para los métodos tradicionales de detección y respuesta.
«Estamos presenciando un cambio sísmico en el panorama de amenazas cibernéticas», dijo Yael Kishon, líder de productos e investigaciones de IA en Kela. «Los ciberdelincuentes no solo usan IA, sino que están construyendo secciones completas en el ecosistema subterráneo dedicado al delito cibernético con IA». Ella enfatizó que «las organizaciones deben adoptar defensas impulsadas por la IA para combatir esta creciente amenaza». Para mantenerse a la vanguardia de aumentar las amenazas cibernéticas con IA, Kela aconseja invertir en capacitación de empleados.
Kela recomienda monitorear las amenazas y tácticas emergentes de IA, e implementar medidas de seguridad propulsadas por IA, como el equipo rojo automatizado basado en la inteligencia y las emulaciones adversas para modelos de IA generativos.
Este informe deja en claro que la carrera armamentista entre los innovadores del delito cibernético y los expertos en seguridad exige el compromiso matizado y proactivo. Si las organizaciones deben emplear una IA generativa para contrarrestar la IA generativa en el phishing, que así sea, pero es preocupante cuán superados serán los métodos convencionales si los malos actores permanecen sin control.
El salto alarmante en la charla en línea centrada en la IA revela que los ciberdelincuentes no simplemente adoptan la IA, sino que perfeccionan sus métodos de piratería de IA. Esto es incluso peor que la armadura del código externo, porque ahora los enemigos son efectivamente medidas de seguridad de ingeniería inversa. Este es un juego largo, pero los ciberdelincuentes están explotando un objetivo abierto en este momento y demanda de acción ahora.
El aumento en el número de métodos de jailbreak citados supera significativamente las contra-interventiones.
Ayudado por herramientas específicas que muestran aplicaciones sofisticadas en áreas como la tecnología Deepfake y el desarrollo de malware, estos cibercriminales agregan otra capa de complejidad para las empresas de aplicación y seguridad de la ley.
La advertencia de Kela no se puede ignorar por mucho más tiempo, donde los desarrolladores, ya sean buenos o malos, se están centrando en crear kits de herramientas para explotar el software de IA y abordar problemas significativos de seguridad cibernética. Por ahora, el ecosistema subterráneo centrado en el cibercrimen cibernético impulsado por IA crece.
A pesar de que más de estas tácticas dependen de la ingeniería social, los empleados, que se sabe que son el vínculo de ciberseguridad más débil, todavía no están invirtiendo en herramientas de IA con tanta frecuencia como deberían. Este problema se intensificará cuando los ejecutivos de la compañía necesiten acceder a tales mecanismos.