Por jon
Publicado el 14 octubre, 2024
OpenAI ha revelado un alarmante aumento en el uso de su modelo de inteligencia artificial, ChatGPT, para fines maliciosos, confirmando más de 20 casos recientes en los que la herramienta se utilizó para desarrollar malware y llevar a cabo ataques de phishing. Según el informe, actores estatales, incluidos grupos de hackers vinculados a China, Irán y Rusia, han explotado la IA generativa para realizar ciberataques y diseminar desinformación en redes sociales, marcando el comienzo de una nueva era de amenazas cibernéticas potenciadas por la inteligencia artificial.
Uno de los grupos mencionados en el informe es SweetSpecter, un colectivo chino que ha realizado ataques de spear-phishing dirigidos a gobiernos asiáticos y personal de OpenAI. En un caso particular, los atacantes enviaron correos electrónicos que simulaban problemas con los servicios de ChatGPT e incluían archivos ZIP infectados con el malware SugarGh0st RAT. Al abrir el archivo, el malware tomaba control del dispositivo, permitiendo a los hackers robar información y ejecutar comandos de manera encubierta.
En Irán, el grupo CyberAv3ngers, vinculado a la Guardia Revolucionaria Islámica, utilizó ChatGPT para identificar vulnerabilidades en sistemas industriales, atacando instalaciones de control de agua en Estados Unidos e Irlanda. En noviembre de 2023, lograron interrumpir temporalmente el suministro de agua en Aliquippa, Pensilvania, y en otra ocasión provocaron un apagón de dos días en el condado de Mayo, Irlanda. Las investigaciones demostraron que los atacantes usaron la IA para crear y perfeccionar scripts maliciosos.
Otro grupo iraní, STORM-0817, se especializó en el desarrollo de malware para dispositivos Android. Su software permitía acceder a datos sensibles como registros de llamadas, contactos y archivos de mensajería. Además, este grupo utilizó ChatGPT para depurar códigos y mejorar técnicas de extracción de datos de redes sociales como Instagram.
Estos incidentes reflejan cómo los modelos de inteligencia artificial están siendo aprovechados por grupos criminales y actores estatales en diversas etapas de ciberataques complejos. Los expertos advierten que este es solo el principio de un nuevo escenario de ciberamenazas que plantea grandes desafíos a la seguridad global.