Los registros de dominios mensuales relacionados con ChatGPT crecieron en 910%: Palo Alto Networks.
A poco más de dos meses del lanzamiento de ChatGPT-4 por OpeAI y de presentar el crecimiento más rápido en la historia, la tecnología está atrayendo a los estafadores.
Advierten investigadores de Unit 42, la Unidad de Investigación e Inteligencia de Amenazas de Palo Alto Networks.
De acuerdo con el seguimiento, entre noviembre de 2022 y principios de abril de 2023, se produjo un aumento del 910% en los registros mensuales de dominios relacionados con ChatGPT.
Además, destaca el comunicado, se pudo observar un crecimiento del 17 mi 818% en dominios maliciosos relacionados con registros de seguridad DNS, en este mismo periodo de tiempo.
Los analistas también descubrieron que era posible detectar hasta 118 intentos diarios de URL maliciosas relacionadas con ChatGPT.
Capturadas a partir del tráfico visto en el Sistema de Filtrado Avanzado de URL de Palo Alto Networks.
“Hemos detectado un número creciente de productos sospechosos que utilizan la API oficial de OpenAI para ChatGPT.
“Exhortamos a los usuarios mantenerse a la defensiva frente a riesgos de seguridad potenciales”.
Advirtió Daniela Menéndez, Country Manager de Palo Alto Networks México.
Tendencias de actividad sospechosa relacionada con ChatGPT
Agrega que han observado varios casos de actores de amenazas que registraban y utilizaban dominios fraudulentos en el ciberespacio teniendo “openAI” y “ChatGPT”.
Como nombre de dominio (por ejemplo, openai.us, openai.xyz y chatgpt.jobs).
La mayoría de estos dominios no han alojado nada malicioso desde principios de abril de 2023, pero es preocupante que no estén controlados por OpenAI.
Unit 42 también estudió los keywords en el tráfico desde el Sistema de Filtrado Avanzado de URL.
Por ello, identificó dos grandes picos de búsqueda con las palabras “ChatGPT y GPT-4”, el día en que OpenAI publicó la API oficial.
Estafas que usan el nombre de Chat GPT como anzuelo
Así mismo, observaron varias URL de phishing que intentaban hacerse pasar por sitios web oficiales de OpenAI.
Normalmente, los estafadores crean un sitio web falso que imita la apariencia del sitio web oficial de ChatGPT y luego engañan a los usuarios para que descarguen malware con un botón falso.
Por ejemplo, un sitio web falso de ChatGPT intenta engañar a las víctimas para que faciliten su información confidencial.
Como datos de tarjetas de crédito y direcciones de correo electrónico.
Además, han detectado que aprovechan de la creciente popularidad de OpenAI para obtener criptomonedasUna criptomoneda es un activo digital que utiliza un cifrado criptográfico para garantizar su titularidad y asegurar la integridad de las transacciones. Estas monedas no existen de forma física, solo se almacenan en una cartera digital. Las criptomonedas cuentan con diversas características, una de ellas es que no están reguladas por ninguna institución y no requieren de intermediarios en las transacciones. Además, usan una base de datos descentralizada, blockchain o registro contable..
Identificaron a un estafador que abusaba del logotipo de OpenAI y del nombre de Elon Musk para atraer a las víctimas a un evento fraudulento de distribución de criptodivisas.
Los riesgos de los chatbots imitadores
Al ser un a de la aplicaciones más populares, ChatGPT, ha dado pie a la aparición de más aplicaciones de chatbot imitadoras de IA.
Algunas ofrecen sus propios modelos de lenguaje, y otras afirman que brindan servicios ChatGPT a través de la API pública anunciada el primero de marzo.
Sin embargo, el uso de chatbots imitadores puede aumentar los riesgos de seguridad.