Así clonan la voz de tus familiares para extorsionar por WhatsApp | Recomendaciones

Los delincuentes usan la Inteligencia Artificial para extorsionar a las personas a través de mensajes de voz. Así es como operan.

| 2024-11-04

Desde que la Inteligencia Artificial llegó a la vida del ser humano le ha facilitado algunas tareas que tienen que ver con el uso de las aplicaciones, como lo es Facebook, Instagram y WhatsApp, por mencionar algunas.

Sin embargo, también hay puntos negativos del uso de la IA, puesto que los delincuentes cibernéticos la utilizan para cometer actos ilícitos como extorsionar a los usuarios.

De acuerdo con los especialistas en tecnología, los extorsionadores implementan la clonación de la voz de algún familiar para sacar provecho a través de WhatsApp.

Clonan la voz con IA en WhatsApp

Con un audio falso los delincuentes crean una situación de emergencia para que la víctima crea que se trata de algún familiar que se encuentra pidiendo ayuda.

Las notas de voz dicen lo siguiente: "Estoy en un problema" o "Necesito dinero urgentemente".

Realizan la clonación de la voz del familiar, y es que cuántos más ejemplos de la voz de la persona tiene la IA, va a sonar más convincente. Se dan a la tarea de buscarlas en redes sociales.

Aunado a esto, los estafadores hackear las cuentas de WhatsApp para enviar el mensaje desde el número real.

La Inteligencia Artificial la utilizan para replicar la voz de una persona con mucha precisión, y lo único que necesitan es una pequeña muestra del audio original

En este sentido, lo que realiza la IA, es analizar el timbre de voz y el sonido y con ello generan nuevos mensajes de voz muy parecidos al original.

Cabe destacar que todo está al alcance de los delincuentes para extorsionar, puesto que no se necesitan conocimientos técnicos avanzados.

Protégete así de las estafas

.
.