Inteligencia artificial
Boom de estafas virtuales relacionadas a ChatGPT
El gran problema de cualquier avance tecnológico masivo es que casi siempre existe el peligro de los ciberataques: cuantos más usuarios, mayor es la superficie de hackeo.
En marzo, OpenAI lanzó una nueva versión de su modelo de lenguaje natural, GPT-4. Y el gran problema de cualquier avance tecnológico masivo es que casi siempre existe el peligro de los ciberataques: cuantos más usuarios, mayor es la superficie de ataque. Para comprender esta realidad, distintos analistas realizaron seguimientos de tendencias para comprender los objetivos más buscados por los hackers.
Investigadores de Unit 42, la unidad de Investigación e Inteligencia de Amenazas de Palo Alto Networks, monitorearon trending topics, dominios recién registrados y dominios ocupados relacionados con ChatGPT, ya que es una de las aplicaciones de consumo más populares y con mayor crecimiento de la historia, que también está atrayendo la atención de los estafadores.
A través de un modelo de IA -que se está convirtiendo cada vez más en un activo crucial para las organizaciones que utilizan la automatización para aumentar la productividad y la eficacia de sus procesos- la llamada Unit 42 señaló que entre noviembre de 2022 y principios de abril de 2023 se produjo un aumento del 910% en los registros mensuales de dominios relacionados con ChatGPT. Además, observó un crecimiento del 17,818% en dominios de ataque relacionados con registros de seguridad DNS en ese mismo periodo de tiempo.
Los investigadores también descubrieron que era posible detectar hasta 118 intentos diarios de URL maliciosas relacionadas con ChatGPT, capturadas a partir del tráfico visto en el sistema de filtrado avanzado de URL. "Como OpenAI lanzó su API oficial para ChatGPT recientemente, hemos visto un número creciente de productos sospechosos que la utilizan. Por lo tanto, destacamos los peligros potenciales del uso de chatbots imitadores para animar a los usuarios de ChatGPT a acercarse a estos con una mentalidad defensiva", afirma Dario Opezzo, Regional Sales Manager.
Tendencias en la actividad sospechosa relacionada con ChatGPT
Casos de estafas con ChatGPT
Al realizar la investigación, se pudieron observar varias URL de phishing que intentaban hacerse pasar por sitios web oficiales de OpenAI. Normalmente, los estafadores crean un sitio web falso que imita la apariencia del sitio web oficial de ChatGPT y luego engañan a los usuarios para que descarguen malware o compartan información confidencial.
Una técnica habitual que utilizan los estafadores para distribuir malware es presentar a los usuarios un botón "DESCARGAR PARA WINDOWS" que, una vez pulsado, descarga malware troyano, que es un programa malicioso que infecta dispositivos como si fuera un programa legítimo sin que las víctimas perciban el riesgo.
Además, los estafadores pueden utilizar la ingeniería social relacionada con ChatGPT para el robo de identidad o el fraude financiero. A pesar de que OpenAI ofrece a los usuarios una versión gratuita de ChatGPT, los estafadores conducen a las víctimas a sitios web fraudulentos, alegando que deben pagar por estos servicios. Por ejemplo, el sitio web falso de ChatGPT intenta engañar a las víctimas para que faciliten su información confidencial, como datos de tarjetas de crédito y direcciones de correo electrónico.