Inteligencia artificial vulnerable
Inteligencia artificial vulnerable

Analizan los riesgos de seguridad que ha generado ChatGPT, sugieren monitoreo detallado y cerrar las brechas de seguridad.

El 20 de marzo, ChatGPT se tuvo que “apagar” por casi nueve horas, por haber exhibido datos personales y métodos de pago de 1.2% de sus suscriptores plus.

“En las horas previas a que desconectamos ChatGPT, era posible que algunos usuarios vieran el nombre y apellido, dirección de correo electrónico, dirección de pago de otro usuario activo.

“Los últimos cuatro dígitos de número de tarjeta de crédito y el vencimiento de la tarjeta de crédito, fecha“.

Comentó OpenAI en su blog.

Situación que no se ubicó como un hackeo, sino una “visibilidad involuntaria de información” por un error de código abierto

 “Que permitía a algunos usuarios ver títulos del historial de chat de otro usuario activo“.

Precisó la empresa.

No es algo mínimo, sobre todo si se toma en cuenta que esta inteligencia GPT, se puede usar para crear gemelos digitales de procesos productivos, campañas de marketing y asistentes para proyectos, entre otros servicios.

Requiere monitoreo y blindaje de seguridad

Describe César Vázquez, director de Deep Learning para la Región Norte de LLYC.

“Uno de los principales usos que se le está dando es en el área de marketing, en temas de investigación de audiencias y mercado.

“Para detallar análisis de compra y de consumidores, generación de contenido, enviar correos de forma masiva”.

Añadió.

“El ChatGPT, como toda herramienta en fase de desarrollo, tiene el riesgo de intentos (de ciberataques).

“Pero, puede tener puntos de blindaje para que no haya fuga de información.

“Se debe empezar a monitorear como se está usando y sus resultados, sobre todo ubicar y cerrar las brechas de seguridad que empieza a mostrar“.

Explicó Vázquez.

Ciberdelincuencia ha utilizado el ChatGPT

José Antonio Fernández, director de Ingeniería de Sistemas para América Latina y el Caribe de Palo Alto Networks, dijo que a fines de 2022 el chatbot fue utilizado para crear variantes de malware.

Esto es un indicio para no confiar totalmente en esta inteligencia artificial (IA), pues no sería extraño que se den estafas con imágenes autogeneradas para cometer falsificaciones.

“Los ciberdelincuentes han estado explorando la herramienta y sus múltiples funcionalidades.

También compartido su conocimiento como mafia organizada para encontrar y mejorar sus técnicas y atraer clientes“.

Sostuvo.

En la actualidad, la Inteligencia Artificial se utiliza para identificar patrones en los sistemas informáticos que revelan debilidades en los programas de seguridad.

Lo que permite a los hackers explotar esas debilidades.

En el caso del phishing, los ciberdelincuentes pueden usar algoritmos de aprendizaje automático para crear y enviar correos electrónicos personalizados y creíbles.

Los ataques digitales de fuerza bruta también la han utilizando.

Pues, resultan más eficientes cuando se utilizan algoritmos de aprendizaje automático para atacar contraseñas y otros tipos de autenticación.

Sin embargo, para hacer frente a los desafíos y velocidad del panorama de amenazas, la IA se debe centrar en prevenir ataques y responder lo más rápido posible a las amenazas, expuso la empresa.

Requiere una revisión detenida

En tanto, Tenable reconoció que, si bien esta inteligencia permite encontrar errores de codificación y vulnerabilidades de software, su rendimiento puede ser impredecible.

Sostuvo que el uso de chatbot como asistente en temas de ciberseguridad se debe revisar detenidamente, como mínimo, de forma manual y cuidadosa.

Incluso, apenas el miércoles, ejecutivos de tecnología y principales investigadores pidieron en una carta pausar por seis o más meses el desarrollo de nuevas herramientas de Inteligencia Artificial.

¿Qué productos tecnológicos ofertarás en Hot Sale?