Los ciberdelincuentes también han reconocido el potencial del chatbot ChatGPT de OpenAI y han empezado a utilizar la inteligencia artificial para desarrollar rápidamente herramientas de pirateo. Los investigadores en ciberseguridad hicieron esta advertencia a principios de año. En declaraciones a Forbes, un experto que vigila foros delictivos informó de que los estafadores están probando ChatGPT para construir otros chatbots que se hagan pasar por mujeres jóvenes para atrapar a sus objetivos.
Muchos de los primeros usuarios de ChatGPT ya habían expresado su temor de que la aplicación pudiera ser capaz de codificar software malicioso que espíe las pulsaciones de teclado de los usuarios o cree ransomware.
Según el informe de la empresa de seguridad israelí Check Point, revisaron un post de un foro en el que un hacker que había difundido anteriormente malware para Android presentaba un código escrito por ChatGPT que robaba archivos de interés, los comprimía y los enviaba por Internet. También mostró otra herramienta que instalaba un backdoor en un ordenador y podía cargar más malware en un PC infectado. También hay mensajes en foros en los que los usuarios afirman que crearon su primer script con ChatGPT para cifrar archivos. Este código puede utilizarse con fines totalmente inofensivos. Sin embargo, con una pequeña modificación del script, también es posible cifrar el ordenador de una persona sin ninguna interacción por parte del usuario.
El fundador de la empresa de ciberinteligencia Hold Security, Alex Holden, afirma que ha observado que los estafadores de citas también utilizan ChatGPT para crear personajes convincentes. Según él, “planean crear chatbots, la mayoría haciéndose pasar por chicas, para entrar en chats con sus objetivos”. Es un intento de automatizar los chats, dijo.
Por ahora, las herramientas programadas por ChatGPT parecen “bastante básicas”. Check Point afirma que es sólo cuestión de tiempo que los hackers “más sofisticados” encuentren la forma de utilizar la IA en su beneficio. Rik Ferguson, vicepresidente de inteligencia de seguridad de la empresa estadounidense de ciberseguridad Forescout, afirmó que ChatGPT aún no parece capaz de programar nada tan complejo como lo que se ha visto en importantes ataques de piratería informática en los últimos años. Sin embargo, la aplicación de OpenAI puede reducir la barrera de entrada para los recién llegados al mercado ilícito mediante la creación de programas maliciosos más sencillos pero igualmente eficaces, añadió Ferguson. También cree que es posible que ChatGPT se utilice para crear sitios web y bots que engañen a los usuarios para que compartan sus datos. Podría “industrializar la creación y personalización de sitios web maliciosos, campañas de phishing dirigidas y estafas basadas en ingeniería social”.
Es demasiado pronto para saber si ChatGPT se convertirá en una nueva herramienta favorita de los participantes en la web oscura. Check Point preguntó a la propia ChatGPT sobre las posibilidades de abuso. La respuesta fue que no se puede descartar el uso indebido y también da ejemplos con la creación de correos de phishing y publicaciones en las redes sociales. Al mismo tiempo, señala que no es responsable del uso indebido de su tecnología y tomar medidas para evitarlo. El chatbot cita como ejemplo que los usuarios deben aceptar que los servicios no se utilicen para actividades ilegales o perjudiciales. ¿Bastará esto para impedir que los ciberdelincuentes abusen de ChatGPT?