| 2024-08-28
Las estafas hoy en día con ayuda de las nuevas tecnologías suelen ser más comunes entre las personas que se dedican a realizar estos actos ilícitos, por lo que deberías de estar muy pendiente que no sea tu caso en dado caso de recibir una notificación de estafa.
Con la inteligencia artificial muchos de estas personas que se dedican a realizar este tipo de actos suelen aprovecharse de las personas más vulnerables para poder robar sus datos personales.
La mayoría de este tipo de estafas se cometen a través de aplicaciones de mensajería instantánea como lo es WhatsApp, por ello, es que sus creadores han indicado que en este 2024 realizarán una serie de adecuaciones que permitan inhibir estos actos.
Y es que muchas personas suelen subir fotografías muy personales, así como videos, mismos que pueden ser hackeados por personas que se dedican a estos actos, por lo que debes considerar muy bien el contenido que ocupas.
Ahora se reporta una nueva modalidad en la que los usuarios reciben mensajes de voz extraños de un familiar o conocido, que podrían ser intentos de robo de información utilizando Inteligencia Artificial (IA).
Expertos advierten que los delincuentes están utilizando IA para clonar la voz de un familiar o amigo cercano, haciéndose pasar por ellos para engañar a las personas y obtener sus datos personales y financieros a través de WhatsApp. Para lograrlo, la inteligencia artificial necesita apenas tres segundos de un audio, el cual puede ser tomado de una llamada o de redes sociales.
El objetivo de estos estafadores es acceder a información bancaria o persuadir a las personas para que realicen depósitos o transferencias. Por ello, es crucial no proporcionar información personal por teléfono, especialmente cuando alguien se presenta como empleado bancario, ya que muchos estafadores se hacen pasar por ellos.
Este tipo de estafa se conoce como vishing, un ataque de ingeniería social en el que el estafador se hace pasar por otra persona. El vishing es particularmente difícil de detectar debido al uso de la IA. Los delincuentes utilizan bots para realizar llamadas automatizadas a los contactos de la víctima, imitando la voz de un conocido o familiar.
Para evitar caer en este tipo de estafa, es esencial mantener la calma y no ceder ante la presión. Si recibes una llamada de un supuesto familiar que afirma estar en peligro, lo mejor es colgar y llamar directamente a esa persona para verificar su situación. Otra medida preventiva es pedir a la llamada que se identifique; si se trata de una voz generada por IA, es probable que no pueda hacerlo, lo que indicaría que es una estafa.
Por último, es recomendable mantener la información personal privada, especialmente en redes sociales, y adoptar un perfil bajo para reducir el riesgo de ser víctima de este tipo de fraude.
/lmr