ChatGPT logró crear malware pero no analizó malware complejo

ChatGPT logró crear malware pero no analizó malware complejo - Codelivly

 

Los investigadores alimentaron las muestras de malware con una variedad de complejidad en ChatGPT para analizar el propósito detrás de este código y finalmente obtuvieron resultados sorprendentes que explican la estructura del código.

ChatGPT es una tecnología de inteligencia artificial emergente creada por OpenAI y varios informes indican que tiene sólidas habilidades para crear familias de malware personalizadas, como ransomware, puertas traseras y herramientas de piratería.

Pero no se limita a los piratas informáticos que intentan obtener ayuda de ChatGBT para ayudar a diseñar funciones para un mercado web oscuro similar a Silk Road o Alphaba.

Dado que hay varias discusiones en Internet sobre la efectividad de ChatGPT en el desarrollo y análisis de malware, los investigadores de ANY(.)RUN intentaron analizar los diferentes tipos de código de software de muestras de malware enviados a ChatGPT para determinar qué tan bien entra en el análisis de malware. .

LAVAR

Escribir código es uno de los aspectos más fuertes de ChatGPT, especialmente la mutación, pero, por otro lado, los actores de amenazas pueden abusar fácilmente de él para desarrollar malware polimórfico.

Prueba ChatGPT para analizar código malicioso

Para determinar la efectividad del análisis de código malicioso, se enviaron muestras de código de malware de diferente complejidad en ChatGBT.

Inicialmente, los investigadores enviaron un fragmento simple de código malicioso a ChatGBT para su análisis, junto con el código que oculta las unidades de la interfaz del Explorador de Windows.

Código enviado
Resultados de ChatGBT

En este primer resultado, ChatGBT proporciona un resultado justo, y la IA entendió el propósito exacto del código y también destaca las intenciones del código malicioso y las rutas lógicas.

Luego, se volvió a enviar otro código complejo de ransomware para probar el rendimiento de ChatGBT.

En los siguientes resultados, ChatGPT identificó su función como investigadores que se ocupan de un ataque de ransomware falso.

Ejemplo 2 de resultados de GPT de Chat

Los atacantes no tratarán con código simple en situaciones de la vida real, por lo que finalmente enviaron el código de alta complejidad.

Según el informe de Any.run, "Entonces, para las siguientes dos pruebas, hemos aumentado la complejidad y le hemos dado un código más cercano a lo que podría esperar que se le pida que analice en el trabajo".

Este análisis final terminó ejecutando código grande e IA directamente a través del error, luego los investigadores probaron diferentes métodos y, sin embargo, la respuesta no fue la esperada.

Luego, se volvió a enviar otro código complejo de ransomware para probar el rendimiento de ChatGBT.

En este resultado, los investigadores esperan que el script sea desofuscado, pero eso significa que no es legible por humanos que ya lo conocen y no contiene ningún valor, dijeron los investigadores.

"Siempre y cuando proporcione a ChatGPT ejemplos simples, podrá explicarlos de una manera relativamente útil. Pero tan pronto como nos acerquemos a los escenarios del mundo real, la IA se descompondrá".

Si quieres conocer otros artículos parecidos a ChatGPT logró crear malware pero no analizó malware complejo puedes visitar la categoría Tutoriales.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir

Esta página web utiliza cookies para analizar de forma anónima y estadística el uso que haces de la web, mejorar los contenidos y tu experiencia de navegación. Para más información accede a la Política de Cookies . Ver mas