Se estima que durante 2024 los grandes modelos de lenguaje sean capaces de mantener conversaciones con victimas desprevenidas
A partir de 2021, el phishing de voz (vishing) aumentó más de un 550% interanual entre el primer trimestre de ese año y el primer trimestre de 2022, así lo dio a conocer WatchGuard.
De acuerdo con la compañía, este tipo de ingeniería social se estableció como una táctica eficaz para los delincuentes debido a que se busca coerción a través de una llamada de ‘personas de confianza’.
Y es que, aunque los expertos en seguridad piensen que es fácil reconocer estas tácticas de estafa, se estima que la misma se multiplicará por diez gracias a la Inteligencia ArtificialEs la combinación de algoritmos planteados con el propósito de crear máquinas que presenten las mismas capacidades que el ser humano. Fuente: opensource.org.
Esto ocurrirá este año
WatchGuard estima que, durante 2024, la Inteligencia ArtificialEs la combinación de algoritmos planteados con el propósito de crear máquinas que presenten las mismas capacidades que el ser humano. Fuente: opensource.org (IA) jugara un papel imprescindible para la creación y consolidación de riesgos de ciberseguridad ya latentes como el vishing, phishing y uso de códigos QR.
Gustavo Uribe, experto en ciberseguridad de WatchGuard Technologies, explicó cómo se han recopilado y recreado voces y lenguaje de personalidades del espectáculo, deportistas, y otros.
Este tipo de prácticas muestra que la data y la IA está al alcance de cualquier usuario y permite que estafadores consoliden esta táctica como negocio, lo que pone en riesgo a los sectores vulnerables.
¿Qué es el vishing?
Es una de las tácticas más comunes y ocurre cuando un estafador llama haciéndose pasar por una empresa u organización de confianza e intenta que hagas algo que pueda monetizar.
Otro tipo de vishing común es cuando el estafador se hace pasar por una persona de autoridad y te relaciona con algún delito utilizando miedo y confusión para que la víctima comparta información personal.
Te interesa leer: La Inteligencia Artificial irrumpe en ciberseguridad
Hasta el momento, lo único que frena este ataque es su dependencia de la fu erza humana.
De acuerdo con Uribe, aunque los expertos en seguridad piensen que es fácil reconocer estar tácticas de estafa tan obvias, el uso del miedo a las repercusiones legarles o amenazas pueden ser muy eficaces.
Se estima que la combinación de audio deepfake convincente y grandes modelos de lenguaje capaces de mantener conversaciones con víctimas desprevenidas aumentará la escala y el volumen de las llamadas de vishing aumentará este año.