Cómo se puede usar ChatGPT para crear malware

Cómo se puede usar ChatGPT para crear malware - Codelivly

 

ChatGPT no puede reemplazar a los actores de amenazas calificados, al menos no todavía, pero los investigadores de seguridad dicen que se ha demostrado que ayuda a los piratas informáticos poco calificados a crear malware, lo que genera preocupaciones sobre el abuso de la tecnología por parte de los ciberdelincuentes.

Depuis le lancement de ChatGPT en novembre, le chatbot OpenAI a aidé plus de 100 millions d'utilisateurs - environ 13 millions de personnes par jour - à écrire du texte, de la musique, de la poésie, des histoires et des pièces de théâtre à la demanda. También puede responder preguntas de prueba e incluso escribir código de software.

La tecnología poderosa a menudo parece usarse con fines maliciosos, especialmente cuando se pone a disposición del público en general. Según las predicciones de los expertos, a pesar de las medidas contra el abuso destinadas a detener las solicitudes ilegítimas, hay evidencia en la web oscura de que las personas han usado ChatGPT para crear contenido peligroso.

A principios de este mes, Check Point Software Technologies informó que los ciberdelincuentes habían pasado por alto las protecciones de ChatGPT para generar malware. Los investigadores de Check Point monitorearon los foros de la web oscura después del lanzamiento de ChatGPT y encontraron casos en los que los actores de amenazas usaron el chatbot para "mejorar" el código malicioso. Los investigadores probaron las habilidades de codificación del chatbot para ver qué ayuda podría brindar a los piratas informáticos.

"Usando ChatGPT y ChatGPT-3, no vimos la posibilidad de crear algo realmente sofisticado, por ejemplo", dijo Sergey Shykevich, gerente del grupo de inteligencia de amenazas en Check Point. "Se trata principalmente de aumentar la cantidad de personas que ingresarán a su círculo de posibles desarrolladores de ciberdelincuentes y herramientas de desarrollo, y eso puede mejorar la rentabilidad de las amenazas sofisticadas".

Aunque el chatbot carece de complejidad de codificación, ChatGPT puede ayudar a facilitar el proceso. El chatbot es una plataforma útil para crear malware simple o mejorar el malware para aquellos que necesitan ayuda, como piratas informáticos poco calificados y script kiddies.

"Pueden enviar los fragmentos de código y comprobar si hay errores o vulnerabilidades en el código del ransomware o mejorar el código o escribir correos electrónicos de phishing como parte de sus cadenas de infección", dijo Shykevich. "Alguien que nunca ha sido desarrollador y nunca ha creado código o código malicioso, de repente podría experimentar para intentar crear un código malicioso".

Uso ilegal de ChatGPT

Ya en diciembre de 2022, los usuarios de Reddit hablaron sobre "jailbreaks" o ciertas indicaciones que superaron con éxito las defensas de ChatGPT. Los usuarios comparten que engañaron al chatbot para que hiciera declaraciones discriminatorias o ridículas.

Aunque inicialmente se pretendía perforar las defensas del bot conversacional para resaltar las fallas del bot conversacional, los actores de amenazas han hecho un uso ilícito de sus debilidades. Los investigadores de Check Point observaron tres formas en que los piratas informáticos utilizaron la API de OpenAI para generar malware.

El 21 de diciembre de 2022, un actor de amenazas con el nombre de usuario USDoD reveló en un foro clandestino que había generado su primer script usando ChatGPT. La herramienta de cifrado multicapa de Python se puede utilizar para cifrar sus archivos, pero también se puede utilizar como modelo de ransomware.

El USDoD admitió que nunca antes había creado un script, lo que generó preocupaciones de que el chatbot podría permitir que personas sin habilidades técnicas creen malware y causen daños significativos. El científico jefe de NCC Group, Chris Anley, dijo a TechTarget Editorial que, si bien es posible que ChatGPT no pueda producir un ransomware completo, es fácil para los usuarios solicitar un script de cifrado que podría usarse con fines maliciosos.

Si bien este código podría ser potencialmente peligroso, Shykevich dijo que la decodificación USDoD derivada de ChatGPT "necesitaba algunos ajustes para que funcionara correctamente".

En un informe anterior, Check Point descubrió a otro pirata informático que explicó que usó ChatGPT para recrear un código de robo de información basado en Python una semana después que podría usarse para copiar y filtrar archivos como PDF, imágenes y documentos de Office desde un sistema. Luego, el mismo usuario compartió un código Java simple que escribió que usa PowerShell para descargar el software del cliente PuTTY, aunque se puede modificar para descargar y ejecutar cualquier programa.

Los investigadores de Check Point también descubrieron un hacker que demostraba el papel de ChatGPT en la creación de un mercado de la dark web. El pirata informático lanzó un código con una API de terceros que incorporaba los precios actuales de las criptomonedas que podrían usarse para realizar compras ilícitas.

Omitir las restricciones de ChatGPT

Inicialmente, algunos investigadores de seguridad consideraron que las restricciones de la interfaz de usuario de ChatGPT eran débiles y descubrieron que los actores de amenazas podían eludir fácilmente las barreras. Desde entonces, Shykevich dijo que OpenAI se ha inclinado por mejorar las restricciones de los chatbots.

"Descubrimos que las restricciones en la interfaz de usuario de ChatGPT son mucho más altas cada semana. Por lo tanto, ahora es más difícil realizar actividades maliciosas o abusivas con ChatGPT", dijo.

Pero los ciberdelincuentes aún pueden abusar del programa usando y evitando ciertas palabras o frases que permiten a los usuarios eludir las restricciones. Matt Lewis, director de investigación comercial de NCC Group, Lewis calificó la interacción con modelos en línea como una "forma de arte" que involucra cálculos.

“Si evita usar la palabra malware y simplemente le pide que le muestre el código de muestra que encripta los archivos, por diseño, eso es lo que hará”, dijo Lewis. "Tiene una forma en la que le gusta que le instruyan y hay algunas formas interesantes de hacer que haga lo que tú quieres que haga de diferentes maneras".

En una demostración para TechTarget Editorial, Lewis mostró cómo el programa "escribirá un script de cifrado" que, a pesar de carecer de ransomware completo, aún podría ser peligroso. "Este va a ser un problema difícil de resolver", dijo Lewis sobre las soluciones alternativas, y agregó que controlar el lenguaje según el contexto y la intención será extremadamente difícil para OpenAI.

Para complicar aún más las cosas, los investigadores de Check Point observaron que los actores de amenazas utilizan bots de Telegram con API para un patrón GPT-3, conocido como text-davinci-003, en lugar de ChatGPT, para eludir las restricciones de chatbot.

ChatGPT es simplemente una interfaz de usuario para los modelos de OpenAI. Estas plantillas están disponibles para que los desarrolladores las integren en sus propias aplicaciones. Los usuarios consumen estos modelos a través de API, que no están protegidas por restricciones.

"Por lo que vemos, las barreras y restricciones que OpenAI coloca en la interfaz de ChatGPT no están implementadas principalmente para aquellos que usan los modelos a través de la API", dijo Shykevich.

Los actores de amenazas también pueden eludir las restricciones siendo específicos en las indicaciones de sus chatbots. CyberArk probó ChatGPT desde su lanzamiento y encontró puntos ciegos en las restricciones. Insistir y exigir repetidamente entregará el producto de codificación deseado. Los investigadores de CyberArk también informaron que al preguntar continuamente a ChatGPT y mostrar una nueva pieza de código cada vez, los usuarios pueden crear malware polimórfico altamente evasivo.

Los virus polimórficos pueden ser extremadamente peligrosos. Pero Anley señaló que ya existen herramientas y marcos disponibles en línea para producirlos. La capacidad de ChatGPT para crear uno es especialmente beneficiosa para los codificadores no calificados y los script kiddies.

"Esta no es una capacidad nueva en términos de atacantes... ni es una forma particularmente efectiva de generar variantes de su malware", dijo Anley. “Ya hay herramientas que lo hacen mejor. Esto es potencialmente nuevo en el sentido de que podría permitir que atacantes menos hábiles generen código que podría ser peligroso.

Los investigadores de Check Point descubrieron que un actor de amenazas había lanzado una herramienta de cifrado de varias capas creada con ChatGPT.

¿Qué tan altas son las apuestas?

Dado que los resultados de ChatGPT a menudo son imperfectos, es probable que solo sean dañinos si se acompañan del papel de un pirata informático experto que puede realizar los ajustes y adiciones necesarios al código.

“Probablemente se necesita a alguien con conocimientos para convertir esto en un exploit armado, malware armado”, dijo Anley.

Lo que hace que el chatbot sea aún menos práctico para crear malware es que ya hay muchas herramientas disponibles para crear malware funcional. Hasta que no veamos progreso en el programa de IA, no será completamente beneficioso usar ChatGPT de esta manera.

“Si bien es cierto que es posible que pueda usar los modelos de esta manera para generar malware, ya podemos generar malware de este tipo de una manera que probablemente sea más eficiente y segura desde el punto de vista de los atacantes. vista", dijo Anley.

Sin embargo, ChatGPT fue eficaz en la generación de correos electrónicos de phishing realistas, que a menudo no son convincentes cuando se ven empañados por errores ortográficos y gramaticales incorrectos. Pero construido con las familias de los excelentes modelos de lenguaje GPT-3 de OpenAI, ChatGPT puede producir correos electrónicos atractivos.

"El lenguaje es bastante bueno y bastante estricto, por lo que es posible que no puedas entenderlo tanto como solías hacerlo", dijo Lewis.

Para abordar este problema, OpenAI continuará tomando medidas enérgicas contra las restricciones de ChatGPT. Pero lo más probable es que los actores de amenazas continúen encontrando una manera de abusar de la tecnología. Shykevich advirtió que si bien las conversaciones sobre la moderación, las restricciones y la censura de los chatbots son importantes, las medidas de seguridad nunca serán suficientes para detener por completo la actividad maliciosa.

“El abuso puede convertirse en un monstruo si no hablamos o si las restricciones no se aplican desde el principio”, dijo Shykevich. “Pero también es imposible que el abuso se reduzca a cero”.

Si quieres conocer otros artículos parecidos a Cómo se puede usar ChatGPT para crear malware puedes visitar la categoría Tutoriales.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir

Esta página web utiliza cookies para analizar de forma anónima y estadística el uso que haces de la web, mejorar los contenidos y tu experiencia de navegación. Para más información accede a la Política de Cookies . Ver mas