Desde malware hasta deepfakes, la IA generativa está transformando los ataques

La IA generativa incluso está ayudando a los piratas informáticos a engañar a los desarrolladores de código abierto para que utilicen código malicioso, según Gartner.

NATIONAL HARBOR, Maryland — La inteligencia artificial está impulsando las operaciones de los hackers, desde la creación de malware hasta la preparación de mensajes de phishing. Sin embargo, el tan publicitado impacto de la IA generativa tiene sus límites, afirmó un experto en ciberseguridad en una conferencia del sector celebrada aquí el lunes.

“La IA generativa “se está utilizando para mejorar la ingeniería social y la automatización de ataques, pero en realidad no ha introducido técnicas de ataque novedosas”, dijo Peter Firstbrook, distinguido analista vicepresidente de Gartner, en la Cumbre de Seguridad y Gestión de Riesgos de su empresa.

Los expertos han predicho que la IA revolucionará la capacidad de los atacantes para desarrollar herramientas de intrusión personalizadas, reduciendo la cantidad de tiempo que le toma incluso a los piratas informáticos novatos compilar malware capaz de robar información, registrar la actividad de la computadora o borrar discos duros.

“No hay duda de que los asistentes de código de IA son una aplicación revolucionaria para la generación de IA”, afirmó Firstbrook. “Observamos enormes aumentos de productividad”.

En septiembre, investigadores de HP informaron que hackers habían usado IA para crear un troyano de acceso remoto . Refiriéndose a dicho informe, Firstbrook afirmó: «Es difícil creer que los atacantes no vayan a aprovechar el uso de IA de última generación para crear nuevo malware. Estamos empezando a verlo».

Los atacantes también están utilizando la IA de una manera aún más insidiosa: creando utilidades de código abierto falsas y engañando a los desarrolladores para que incorporen, sin saberlo, el código malicioso en sus aplicaciones legítimas.

“Si un desarrollador no tiene cuidado y descarga la utilidad de código abierto equivocada, su código podría sufrir una puerta trasera incluso antes de llegar a producción”, dijo Firstbrook.

Los piratas informáticos podrían haber hecho esto antes de la IA, pero la nueva tecnología les permite saturar repositorios de código como GitHub, que no pueden eliminar los paquetes maliciosos con la suficiente rapidez.

“Es un juego del gato y el ratón”, dijo Firstbrook, “y la inteligencia artificial les permite ser más rápidos a la hora de ofrecer estos servicios públicos”.

Los deepfakes siguen siendo poco comunes

La integración de la IA en las campañas tradicionales de phishing es una amenaza creciente, pero hasta el momento, su impacto parece ser limitado. Gartner descubrió en una encuesta reciente que el 28 % de las organizaciones habían sufrido un ataque de audio deepfake; el 21 % un ataque de vídeo deepfake; y el 19 % un ataque de medios deepfake que eludía las protecciones biométricas. Aun así, solo el 5 % de las organizaciones han sufrido ataques deepfake que resultaron en el robo de dinero o propiedad intelectual.

Aun así, dijo Firstbrook, “Esta es una gran área nueva”. 

A los analistas les preocupa el potencial de la IA para que ciertos tipos de ataques sean mucho más rentables debido al volumen de ataques que puede generar. “Si soy vendedor y normalmente necesito 100 consultas para obtener un ‘sí’, ¿qué hago? Si hago 200, duplico mis ventas”, dijo Firstbrook. “Lo mismo ocurre con estos. Si pueden automatizar todo el espectro del ataque, pueden actuar con mucha más rapidez”.

Al menos un temor relacionado con la IA de la Generación Z parece exagerado, al menos por ahora. Los investigadores aún no han observado que cree técnicas de ataque completamente nuevas.

“Hasta ahora, eso no ha sucedido”, dijo Firstbrook, “pero es justo lo que nos preocupa”.

Firstbrook mencionó datos del marco MITRE ATT&CK, que cataloga las estrategias que los hackers han desarrollado para penetrar los sistemas informáticos. «Solo encontramos una o dos técnicas de ataque nuevas cada año», afirmó.

Desde malware hasta deepfakes, la IA generativa está transformando los ataques.
CHAT