Cómo ChatGPT puede usarse para crear malware polimórfico según CyberArk

Vale, ChatGPT ya ha cautivado a medio mundo. Se trata de un chatbot de OpenAI que puede utilizarse para múltiples tareas (ya que cuenta con más 175 millones de parámetros). Con el aprendizaje automático en su núcleo, ChatGPT genera respuestas a todo tipo de cuestiones utilizando una gran colección de datos de 2021 y anteriores, y cómo no, tiene la posibilidad de crear código.

Y aunque sus impresionantes funciones ofrecen ejemplos de código rápidos e intuitivos, increíblemente beneficiosos para crear una web de eCommerce o un asistente virtual, el equipo de investigadores de CyberArk Labs ha analizado este sistema de chat para descubrir cómo se puede aprovechar, para bien o para mal, todo su poder. Sobre todo, porque también han descubierto que su capacidad para escribir malware sofisticado que no contiene código malicioso es bastante avanzada, por lo que podría usarse fácilmente para crear malware polimórfico. Así:

  • Los investigadores de CyberArk Labs han pasado por alto los filtros de contenido de ChatGPT para mostrar cómo, con muy poco esfuerzo o inversión, es posible consultar continuamente ChatGPT para recibir una pieza de código única, funcional y validada, es decir, probada cada vez. Esto da como resultado malware polimórfico que no muestra un comportamiento malicioso mientras está almacenado en el disco y, a menudo, no da la impresión de ser sospechoso mientras está en la memoria. Este nivel de modularidad y adaptabilidad lo hace altamente evasivo para los sistemas de seguridad que dependen de la detección basada en firmas.
  • Y aunque ChatGPT es una herramienta online, en realidad no tiene acceso a Internet y, por lo tanto, no puede consultar ni leer nada online, lo que hace que no pueda proporcionar respuestas actualizadas. En cambio, cuando se le solicite un código, ChatGPT generará un código modificado o inferido en función de los parámetros que establezca, en vez de reproducir, simplemente, ejemplos que ha aprendido previamente.
  • Por otro lado, los investigadores de CyberArk Labs destacan que, aunque ChatGPT intentará responder cualquier cosa, incorpora filtros de contenido que evitan que responda preguntas sobre temas que podrían ser problemáticos, como la inyección de código, por ejemplo.
  • Para los investigadores de CyberArk Labs, el hecho de que ChatGPT sea de naturaleza polimórfica es una preocupación añadida, ya que “el malware polimórfico es muy difícil de manejar para los productos de seguridad porque realmente no puede firmarlos. Además, por lo general, no dejan ningún rastro en el sistema de archivos ya que su código malicioso solo se maneja en la memoria. Aparte de que, al ver el ejecutable\elf, probablemente parezca benigno”.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *