Advierten uso de IA para robo de imagen y voz

Advierten uso de IA para robo de imagen y voz

Los ojos, rostro, facciones y la voz de la persona, todo podría ser clonado por medio de la IA.

Imagine que recibe un video o audio de un ser querido que le dice que está secuestrado, sin saber que fue generado por medio de inteligencia artificial (IA).

¿Trataría de pagar el rescate? ¿Qué pensaría si pese a la aparente veracidad de lo que vio, resulta que lo han engañado?

Los ojos, el rostro, las facciones y la voz de la persona, todo, habría sido clonado por medio de la IA.

Con el avance de la tecnología, los ciberdelincuentes están en el umbral de sofisticar los procesos delictivos, si bien ya han hecho uso de la IA.

“El uso que la delincuencia le puede dar a la IA es muy amplio y va a seguir creciendo conforme se vayan exponiendo más métodos hacia el público“.

Señaló Luis Pedro García, perito en informática forense.

A la capacidad de clonar caras, por ejemplo, se le conoce como “deepfake“, y se hace a partir de videos de una persona.

Se requiere cierta cantidad de tiempo de video, por eso normalmente lo hacen con artistas y políticos”.

“En el caso de una persona común y corriente es más difícil, pero si es una persona que postea mucho, sí podemos estar en esa posibilidad“.

Advirtió.

El especialista comentó que, no obstante, han visto casos de “deepfake” con videos pequeños que se generaron a partir de una sola foto.

“Imagínate al presidente o al Papa aparentemente gesticulando, pidiendo un apoyo económico para una buena causa, entonces, se genera un tipo de fraude derivado del robo de identidad, que además se hizo a través de la IA”.

“Va a ser muy complicado de pronto que podamos nosotros identificar qué es lo auténtico y qué no”.

Señaló.

Clonación de la voz

“Hay ya también IA que te permite clonar la voz. Me imagino una situación bancaria en la que un banco toma decisiones a partir de tu voz“.

Agregó.

En los casos de voces clonadas, los archivos incluso se pueden ofrecer como prueba en un proceso judicial sin saberse si son reales.

En los casos de voces clonadas, los archivos incluso se pueden ofrecer como prueba en un proceso judicial sin saberse si son reales.

Me tocó conocer que en otro país alguien utilizó una voz no auténtica para realizar una serie de transferencias“.

Recordó el perito cibernético.

Para detectar “deepfake”, el equipo detrás de Detect Fakes, un proyecto de investigación del Instituto Tecnológico de Massachusetts, recomienda prestar atención a los movimientos de los labios para descubrir la naturalidad.

Hecho, que le ayudaría a dar un paso atrás y pensar por qué existe tal imagen o video.

Mucho ojo

Ante la constante evolución de los métodos de la delincuencia para robar y extorsionar, el perito forense Luis Pedro García recomendó:

  • Mantenerse informado,  prestar atención a la información que surja sobre nuevos modus operandi de los ciberdelincuentes.
  • Desconfiar y usar el instinto. Si considera que la voz, video o imagen que le presentan no tienen sentido o lógica, póngala en duda.
  • Si llega una llamada o comunicación del banco donde le pidan datos personales, cuelgue.
  • Si recibe un correo electrónico de origen dudoso, no le haga caso.
¿Ya planeaste tu oferta para el periodo de Regreso a Clases?

En esta nota se habla de: ciberseguridad, tendencias tecnológicas
WordPress Ads