Según un informe publicado este mes, OpenAI identificó a más de 20 ataques cibernéticos y de manipulación recientes que involucraron el uso de su modelo de inteligencia artificial (IA) generativa con fines maliciosos.
De acuerdo con el reporte, actores estatales, incluidos hackers vinculados a China, Irán y Rusia, han utilizado herramientas como ChatGPT para desarrollar malware, ejecutar ataques de phishing y llevar a cabo campañas de desinformación en redes sociales.
SweetSpecter
SweetSpecter, un grupo con sede en China, es uno de los actores destacados en el informe.
Este grupo ejecutó ataques de spear-phishing dirigidos contra gobiernos asiáticos y personal de OpenAI. En uno de los casos, los atacantes enviaron correos electrónicos que simulaban problemas con servicios de ChatGPT e incluían archivos ZIP con malware oculto, conocido como ”SugarGhost RAT”.
Cuando se abría el archivo malicioso, el malware tomaba el control del dispositivo afectado. Esto permitía a los atacantes ejecutar comandos de forma remota y robar datos valiosos sin ser detectados.
CyberAv3ngers
CyberAv3ngers, por otro lado, es un grupo vinculado a la Guardia Revolucionaria Islámica de Irán, utilizó ChatGPT para explorar vulnerabilidades en sistemas industriales y hackear equipos de control de agua en Estados Unidos e Irlanda.
En noviembre de 2023, lograron interrumpir temporalmente el suministro de agua en la localidad de Aliquippa, Pensilvania. En otro incidente, causaron un apagón de dos días en servicios hídricos en el condado de Mayo, Irlanda.
Las investigaciones revelaron que los atacantes se apoyaron en herramientas de IA para diseñar y refinar scripts maliciosos.
STORM-0817
Asimismo, STORM-0817, otro grupo iraní, centró sus esfuerzos en el desarrollo de malware dirigido a dispositivos Android. Su software permitía extraer información confidencial, como registros de llamadas, contactos y archivos de mensajería.
El grupo también buscó asistencia en ChatGPT para depurar códigos y perfeccionar técnicas de raspado de datos de redes sociales como Instagram, lo que revela cómo los modelos de IA se intengran en múltiples fases de ataques complejos.
Fuente: Infobae
gp