Por el uso de la IA, firmas de ciberseguridad esperan un crecimientos exponenciales en deepfakes; la aparición de WormGPTS y ransomware más agresivo.
Este año se prevé un crecimiento de hasta 800% en el uso de deepfakes potenciados por las nuevas herramientas de la inteligencia artificialEs la combinación de algoritmos planteados con el propósito de crear máquinas que presenten las mismas capacidades que el ser humano. Fuente: opensource.org (IA) Generativa.
Así como, para difundir mensajes manipulados en torno a las elecciones y para promocionar inversiones falsas, advierte la firma Baufest.
Porque los cibercriminales están aprovechando las nuevas capacidades audiovisuales que se están integrando a la inteligencia artificialEs la combinación de algoritmos planteados con el propósito de crear máquinas que presenten las mismas capacidades que el ser humano. Fuente: opensource.org (IA), ubican los analistas de Avast.
Las nuevas funciones permiten a partir de una instrucción escrita, generar contenido sonoro con mayor similitud tanto en las voces como en las imágenes humanas, detalla su comunicado.
Lo que hace cada vez más difícil distinguir un video o audio real de uno fabricado.
Actualmente, 77% de los usuarios de Internet no son capaces de distinguir entre un video real y uno generado con IA, complementa Matías Armándola, arquitecto de Operaciones de Baufest.
Explotan identidades de AMLO, Slim y Salinas Pliego
En los últimos tres meses, en México grupos cibercriminales han suplantado la identidad de figuras públicas para estafar inversionistas.
Para invitar a los mexicanos, a través de anuncios en YouTube, Facebook y X (Twitter), a invertir en supuestas plataformas que daban rendimientos de hasta 21 mil pesos por día con tan sólo invertir mil pesos.
Otro afectado es el presidente Andrés Manuel López Obrador, a quien están utilizando con imágenes de Pemex y CFE para invitar a la población a invertir en las empresas propiedad del Estado.
Te puede interesar leer: Defense-In-Depth (DiD) y la automatización en Ciberseguridad
En 2023, Kaspersky registró 286 millones de intentos de ataques de deepfakes, con un incremento de 417% respecto al año anterior.
“Este año se esperaría un crecimiento de 800% en el número de intentos de phishing con el uso de deepfakes.
“Pero, no descarto que podamos llegar a triplicar la cifra de 2023, pues hay que recordar que viene un periodo de elecciones, donde veremos muchos ataques y descalificaciones en torno a los candidatos”, menciona Armándola.
A nivel empresarial, complementa Avast, los delincuentes están perfeccionando los deepfakes, imitando a ejecutivos o socios, lo que dificultará distinguir entre solicitudes de comunicación digital legítimas y fraudulentas.
“Especialmente, en escenarios que requieren tomas de decisiones rápidas, para generar pérdidas financieras.
“Así como, reducción en la efectividad de la comunicación y desconfianza con las interacciones digitales”, precisa el texto.
Otros riesgos entornos a los “GPT”
Avast agrega que la creciente popularidad de la IA generativa en los negocios también significará nuevos riesgos y desafíos.
Por ejemplo, las empresas deben evitar que los empleados utilicen herramientas personales de IA Generativa en su trabajo.
Porque plantea el riesgo de filtración no intencional de secretos comerciales sensibles a terceros.
Pues, las aplicaciones públicas no cuentan con elementos para preservar la privacidad de la información como las versiones empresariales.
Además, el desarrollo de nuevos LLM maliciosos como “WormGPT” que, a diferencia de los modelos comerciales que incorporan medidas de protección, están diseñados para respaldar la generación de contenido malicioso.
Que ayudará a la creación de tácticas de explotación de datos más efectivas.
Para mejorar e incrementar el robo de identidad, dirigido tanto a empleados como a clientes y la creación de ransomware más complejo y perjudicial.
Por ejemplo, esta semana ESET reportó el robo de millones de códigos de seguridad de doble factor de autenticación (2FA) de Google, WhatsApp, Facebook y TikTok.
Los cuales fueron filtrados porque una base de datos de la empresa YX Internacional, con registros mensuales desde julio de 2023, se encontraba desprotegida.