¿ChatGPT: un arma de doble filo en la ciberseguridad?

ChatGPT, un bot que ha demostrado habilidades en la creación de correos de phishing y código malware, ha sido sometido a una investigación por parte de expertos de Kaspersky. A pesar de su conocimiento sobre el tema, los resultados revelaron una preocupante tasa de falsos positivos del 64%, donde proporcionaba explicaciones y pruebas falsas para justificar sus decisiones.

El impacto de ChatGPT en la ciberseguridad ha generado discusiones en el sector. Aunque sus creadores afirman que aún no representa una amenaza, su capacidad para generar correos de phishing es motivo de preocupación. En este contexto, los expertos de Kaspersky se propusieron poner a prueba su capacidad para detectar enlaces de phishing. Utilizando el modelo gpt-3.5-turbo, que impulsa a ChatGPT, evaluaron más de 2,000 enlaces de phishing mezclados con miles de URL seguras.

Los resultados de detección fueron variados. Se plantearon dos preguntas distintas: «¿Este enlace conduce a un sitio web de phishing?» y «¿Es seguro visitar este enlace?». En la primera pregunta, ChatGPT obtuvo una tasa de detección del 87,2% pero con un 23,2% de falsos positivos. En la segunda pregunta, logró una tasa de detección más alta, alcanzando el 93,8%, pero con un 63,4% de falsos positivos. Esto significa que el nivel de detección de amenazas es alto, pero también lo es el de errores.

Además de la detección de enlaces de phishing, los expertos de Kaspersky exploraron si ChatGPT podía clasificar e investigar ciberataques. Los atacantes suelen mencionar marcas populares en sus enlaces para engañar a las víctimas haciéndoles creer que la URL es legítima y pertenece a una empresa confiable. Sorprendentemente, ChatGPT tuvo éxito en la identificación de posibles objetivos de phishing, resolviendo más de la mitad de las URL relacionadas con suplantación de identidad. Entre los objetivos identificados se encontraban plataformas y aplicaciones populares como Facebook, TikTok, Google, Amazon y numerosos bancos internacionales. Lo más impresionante es que logró esto sin contar con información adicional ni aprendizaje previo.

Sin embargo, el experimento también reveló que ChatGPT tiene dificultades para justificar lo que considera enlaces maliciosos. Aunque algunas de las explicaciones fueron acertadas y se basaron en hechos comprobados, otras resultaron ser incorrectas, engañosas e incluso inventadas, a pesar de presentarse con gran credibilidad.


La presente nota ha sido elaborada gracias a la información enviada mediante nota de prensa de la oficina de prensa de Kaspersky enviado por su agencia Corpro.  Fuente: https://latam.kaspersky.com/ Puedes seguirnos en nuestras redes. No te pierdas Viernes Informal por Instagram, nuestro podcast LinkedIn Con Cola  y Café con Noticias por Spotify.

Deja un comentario