| 2024-08-26
Si alguna vez has recibido un mensaje o llamada sospechosa en WhatsApp, no estás solo. Los ciberdelincuentes están utilizando la Inteligencia Artificial (IA) para llevar a cabo estafas cada vez más sofisticadas, y la última tendencia es realmente preocupante: pueden imitar tu voz o la de tus seres queridos con solo unos segundos de audio.
Todo comienza con un audio corto, tal vez una grabación tuya o de algún familiar que los estafadores logran obtener a través de redes sociales o llamadas telefónicas.
Con tan solo tres segundos de audio, la IA es capaz de aprender tu voz y replicarla con un nivel de realismo que da miedo.
Una vez que tienen esta "copia" de tu voz, los estafadores la utilizan para engañar a tus contactos en WhatsApp.
Imagina recibir un mensaje de voz de tu mamá o de un amigo cercano pidiendo ayuda urgente. Suena exactamente como ellos, pero en realidad es un delincuente que busca robarte dinero o información personal.
Este tipo de estafa, también conocida como vishing, puede presentarse de varias maneras.
Podrías recibir una llamada donde te dicen que alguien cercano está en problemas y necesitan dinero de inmediato, o tal vez te pidan que compartas tus datos bancarios.
En otros casos, simplemente buscan que deposites dinero en una cuenta fraudulenta.
El problema es que la voz que escuchas te parecerá completamente idéntica a la de algún ser querido.
Los estafadores juegan con la emoción y el pánico, haciendo que las víctimas tomen decisiones precipitadas.
Aunque estas estafas suenan aterradoras, hay formas de protegerte y evitar caer en ellas:
Recuerda, la IA es una herramienta poderosa que puede ser utilizada tanto para el bien como para el mal. Mantente informado y protege tu información personal para evitar ser una víctima más de este tipo de fraudes.