Riesgos y ciberamenazas, el lado B de la Inteligencia Artificial

Riesgos y ciberamenazas, el lado B de la Inteligencia Artificial

Eset
Arturo Torres es estratega de Seguridad en FortiGuard Labs de Fortinet para Latinoamérica y Caribe.

Es esencial que las organizaciones pongan especial foco en una de las tendencias tecnológicas más relevantes de nuestra era: la Inteligencia Artificial (IA).

La Inteligencia Artificial (IA) se ha convertido en una poderosa herramienta para la optimización de procesos, la toma de decisiones y la automatización de tareas. Si bien ha revolucionado muchas áreas, su proliferación ha dado lugar a nuevos riesgos y ciberamenazas que requieren una atención crítica y continua.

Un claro ejemplo es ChatGPT o su reciente versión GPT-4. Esta aplicación está basada en un modelo de lenguaje con más de 175 millones de parámetros, está entrenada con grandes cantidades de texto para realizar tareas relacionadas con el lenguaje, desde la traducción hasta la generación de texto, utilizando algoritmos de IA como Procesamiento de Lenguaje Natural #NPL, entre otros.

Esto ha convertido a ChatGPT en una IA generativa, capaz de replicar la forma de pensar de una persona. Lo que implica importantes retos a nivel seguridad, igual que cualquier tecnología emergente que opere en el ciberespacio.

Sin embargo, al tiempo que las herramientas de generación de contenido impulsadas para IA se vuelven más accesibles, ya sea a un costo bajo e incluso gratis, los actores maliciosos recurren a ellas para evolucionar sus operaciones, como el phishing.

Esta táctica no es nueva y ha sido utilizada por décadas. A través de correos o mensajes de texto, los hackers se hacen pasar por un contacto de confianza para lanzar un ataque dirigido y robar información.

Años atrás los ataques de phishing eran fáciles de identificar, pues tenían errores ortográficos y gramaticales. Con la IA han logrado evolucionar sus operaciones, dando pie a mensajes cada vez más realistas e incrementado la posibilidad de que una víctima distraída le dé clic.

Ahora imaginemos, ¿qué pasa cuando un cibercriminal hace uso de ChatGPT? Aunque la herramienta tiene restricciones para evitar su uso con propósitos delictivos, existen casos en donde se pueden evadir para generar un código maliciosos, encontrar y explotar brechas de seguridad, y distribuir malware.

Asimismo, esta agresión puede ser combinada con otras herramientas basadas en IA para realizar DeepFake de voz y simular la voz de una persona; tal vez la de un director o un CEO, para cometer fraudes.

Lee también: Ciberseguridad como parte de la estrategia de negocios

IA propulsa operaciones de ciberseguridad

Sin duda, el uso de la IA implica diversos riesgos y complejidades. Hoy más que nunca las empresas están obligadas a reforzar su estrategia de seguridad digital y, sobre todo, a concientizar a sus empleados acerca del panorama de ciberamenazas que acechan allá afuera.

Aunque este contexto es preocupante, lo positivo es que también está marcando el comienzo de una nueva era de comunicaciones y abriendo paso a operaciones de ciberseguridad impulsadas por la IA.

Con ayuda de esta tecnología estamos acelerando el tiempo de detección de amenazas, podemos automatizar acciones de cara a un ciberataque, nos permite buscar vulnerabilidades e identificar ataques de día cero.

Lo anterior es una reflexión del gran alcance que tiene la IA. Es una herramienta poderosa que conlleva una gran responsabilidad, pero depende de las empresas y los responsables de TI usarla a su favor para identificar y mitigar los riesgos. De lo contrario, puede que ya hayan sido víctimas.

¿Qué tipo de productos venderás más en el Regreso a Clases?

En esta nota se habla de: canal de distribucion, Canal TI, ciberseguridad
WordPress Ads