Inteligencia Artificial motiva aumento de vishing

Inteligencia Artificial motiva aumento de vishing

Inteligencia Artificial motiva aumento de vishing

Se estima que durante 2024 los grandes modelos de lenguaje sean capaces de mantener conversaciones con victimas desprevenidas

A partir de 2021, el phishing de voz (vishing) aumentó más de un 550% interanual entre el primer trimestre de ese año y el primer trimestre de 2022, así lo dio a conocer WatchGuard.

De acuerdo con la compañía, este tipo de ingeniería social se estableció como una táctica eficaz para los delincuentes debido a que se busca coerción a través de una llamada de ‘personas de confianza’.

Y es que, aunque los expertos en seguridad piensen que es fácil reconocer estas tácticas de estafa, se estima que la misma se multiplicará por diez gracias a la Inteligencia Artificial.

Esto ocurrirá este año

WatchGuard estima que, durante 2024, la Inteligencia Artificial (IA) jugara un papel imprescindible para la creación y consolidación de riesgos de ciberseguridad ya latentes como el vishing, phishing y uso de códigos QR.

Gustavo Uribe, experto en ciberseguridad de WatchGuard Technologies, explicó cómo se han recopilado y recreado voces y lenguaje de personalidades del espectáculo, deportistas, y otros.

Este tipo de prácticas muestra que la data y la IA está al alcance de cualquier usuario y permite que estafadores consoliden esta táctica como negocio, lo que pone en riesgo a los sectores vulnerables.

¿Qué es el vishing?

Es una de las tácticas más comunes y ocurre cuando un estafador llama haciéndose pasar por una empresa u organización de confianza e intenta que hagas algo que pueda monetizar.

Otro tipo de vishing común es cuando el estafador se hace pasar por una persona de autoridad y te relaciona con algún delito utilizando miedo y confusión para que la víctima comparta información personal.

Te interesa leer: La Inteligencia Artificial irrumpe en ciberseguridad

Hasta el momento, lo único que frena este ataque es su dependencia de la fu erza humana.

De acuerdo con Uribe, aunque los expertos en seguridad piensen que es fácil reconocer estar tácticas de estafa tan obvias, el uso del miedo a las repercusiones legarles o amenazas pueden ser muy eficaces.

Se estima que la combinación de audio deepfake convincente y grandes modelos de lenguaje capaces de mantener conversaciones con víctimas desprevenidas aumentará la escala y el volumen de las llamadas de vishing aumentará este año.

¿Cómo fue el resultado de tus ventas en el Buen Fin?