iProUP / La inteligencia artificial también genera problemas: cómo es utilizada para ataques de phishing

Herramientas impulsadas por IA automatizaron la generación de agresiones hasta un 300% más que el año pasado. Cómo estar alerta a vulnerabilidades

La inteligencia artificial (IA) se convirtió en una aliada fundamental en todos los ámbitos de la vida de las personas, una herramienta que potenció cualquier sector imaginable.

Sin embargo, como sucede con cualquier tecnología, también existen riesgos asociados al uso de la IA en términos de ciberseguridad.

De hecho, según datos de la firma especializada en riesgo tecnológico, BTR Consulting, el panorama global de amenazas empeora día a día.

Inteligencia artificial: cómo es utilizada para ataques phishing

De acuerdo a BTR, la IA puso en jaque la ciberseguridad de las personas a causa de la creciente difusión de datos personales y vitales que se traducen en un aumento meteórico en la cantidad de ataques, combinados con técnicas cada vez más sofisticadas diseñadas para violar y dañar organizaciones.

Los ataques al almacenamiento en la nube y las aplicaciones de colaboración aumentaron 148%, mientras que el correo electrónico lidera como el principal vector de ataque.

Entre estas maniobras empleadas por los ciberdelincuentes, el phishing fue la amenaza más generalizada, con casi 69% de todos los ataques registrados y que mantienen 45% de participación en aquellos que generaron algún daño económico.

La situación es aún más grave cuando se trata de ataques sobre el correo electrónico empresarial (BEC), con un crecimiento de 75%.

En este sentido, Microsoft fue la marca más suplantada en e-mails, más del triple que la segunda en la lista, LinkedIn.

Mientras que los ataques vía estafas telefónicas también experimentaron un crecimiento sustancial de 300%.

ChatGPT: cómo la emplean los ciberdelincuentes al chatbot para realizar estafas

Entre las distintas herramientas de IA que existen en el mercado, ChatGPT es la que más ganó popularidad últimamente, el cual ya es utilizado por individuos y organizaciones, razón suficiente para que los ciberdelincuentes se hagan pasar por la marca.

La fase inicial del ataque implica que la víctima reciba un correo electrónico que parece legítimo, supuestamente enviado por OpenAI, empresa desarrolladora del popular chatbot.

Concretamente, el correo electrónico solicita al destinatario que verifique su dirección de correo electrónico para poder seguir usando la configuración de su cuenta de ChatGPT.

Para engañar a la víctima, los atacantes manipulan el dominio del remitente para que parezca que el correo electrónico se originó en el soporte de IT de su organización. Dentro del correo, se proporciona un botón «verificar su correo electrónico», que contiene un link engañoso.

Al hacer click en el enlace, la víctima es redirigida a un sitio web falso diseñado parecido al sitio legítimo de su organización, donde se le solicita al usuario que ingresen sus credenciales de inicio de sesión.

Aunque el primer intento de inicio de sesión devuelve un mensaje de error, los atacantes ya capturan los datos confidenciales de la víctima al haber ingresado al enlace. Posteriormente, un segundo intento de inicio de sesión redirige a la víctima a su propio dominio (es decir, el dominio legítimo de la organización).

«La redirección ocurre porque el código personal usa una variable my slice «window.location.replace()» para construir una nueva URL (…) y reemplazar la URL falsa existente», explicaron desde BTR.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.