Imagen de Veracruz 
FacebookTwitterYoutube
TIEMPO EN LA REGIÓN
22 de octubre del 2024
Diario del Istmo
Suscribete a nuestros boletines
Lo mas viral

¡Atención! Así es la nueva estafa con IA en WhatsApp: Pueden imitar tu voz

¿Sabías que pueden clonar tu voz con IA en WhatsApp? Aquí te explicamos cómo evitarlo.
| 2024-08-26 | Jesús Valderrábano
¡Atención! Así es la nueva estafa con IA en WhatsApp: Pueden imitar tu voz
La nueva amenaza en WhatsApp: Estafas con IA que imitan tu voz para engañarte.
Imagen de VeracruzImagen de Veracruz

Si alguna vez has recibido un mensaje o llamada sospechosa en WhatsApp, no estás solo. Los ciberdelincuentes están utilizando la Inteligencia Artificial (IA) para llevar a cabo estafas cada vez más sofisticadas, y la última tendencia es realmente preocupante: pueden imitar tu voz o la de tus seres queridos con solo unos segundos de audio.

¿Cómo funciona esta estafa?

Todo comienza con un audio corto, tal vez una grabación tuya o de algún familiar que los estafadores logran obtener a través de redes sociales o llamadas telefónicas.

Con tan solo tres segundos de audio, la IA es capaz de aprender tu voz y replicarla con un nivel de realismo que da miedo.

Una vez que tienen esta "copia" de tu voz, los estafadores la utilizan para engañar a tus contactos en WhatsApp.

Imagina recibir un mensaje de voz de tu mamá o de un amigo cercano pidiendo ayuda urgente. Suena exactamente como ellos, pero en realidad es un delincuente que busca robarte dinero o información personal.

¡Atención! Así es la nueva estafa con IA en WhatsApp: Pueden imitar tu voz
Los estafadores ahora pueden imitar tu voz usando IA en WhatsApp. ¡Descubre cómo protegerte!

¿Cómo se manifiesta esta estafa?

Este tipo de estafa, también conocida como vishing, puede presentarse de varias maneras.

Podrías recibir una llamada donde te dicen que alguien cercano está en problemas y necesitan dinero de inmediato, o tal vez te pidan que compartas tus datos bancarios.

En otros casos, simplemente buscan que deposites dinero en una cuenta fraudulenta.

El problema es que la voz que escuchas te parecerá completamente idéntica a la de algún ser querido.

Los estafadores juegan con la emoción y el pánico, haciendo que las víctimas tomen decisiones precipitadas.

¡Atención! Así es la nueva estafa con IA en WhatsApp: Pueden imitar tu voz
La nueva amenaza en WhatsApp: Estafas con IA que imitan tu voz para engañarte.

¿Cómo protegerte?

Aunque estas estafas suenan aterradoras, hay formas de protegerte y evitar caer en ellas:

  1. Establece una palabra clave con tus familiares y amigos cercanos. Solo ustedes deben conocerla, y puede ser la clave para identificar si realmente es esa persona la que te está llamando o enviando un mensaje.
  2. No entres en pánico. Si recibes un mensaje de voz o llamada sospechosa, cuelga y llama directamente a la persona por su número habitual, no al número desconocido desde donde recibiste el mensaje.
  3. Protege tu privacidad en redes sociales. Revisa quiénes tienen acceso a tus publicaciones y audios. Mientras menos información esté disponible públicamente, más difícil será para los estafadores obtener un audio tuyo.
  4. Bloquea números desconocidos en WhatsApp si te parecen sospechosos, y evita interactuar con ellos.

Recuerda, la IA es una herramienta poderosa que puede ser utilizada tanto para el bien como para el mal. Mantente informado y protege tu información personal para evitar ser una víctima más de este tipo de fraudes.

  • Lo último
  • Lo más leído
Diario del Istmo
Diario del Istmo

SÍGUENOS EN REDES

 

Nosotros | Publicidad | Suscripciones | Contacto | Aviso de Privacidad

 

 

Reservados todos los derechos 2024