Nacional violencia jalisco CLAUDIA SHEINBAUM Senado de la república Desaparecidos

Estafas

Cómo prevenir estafas por clonación de voz con IA

Este delito involucra engañar a las víctimas a través de medios electrónicos con el objetivo de robar su información personal o financiera.

Cómo prevenir estafas por clonación de voz con IA

Cómo prevenir estafas por clonación de voz con IA

AGENCIA

En 2024, la Secretaría de Seguridad y Protección Ciudadana de México alertó sobre un aumento de estafas en línea. Este delito involucra engañar a las víctimas a través de medios electrónicos con el objetivo de robar su información personal o financiera.

Hay varias modalidades, pero una de las más conocidas es la suplantación de identidad, que busca engañar a los contactos de la víctima. Ahora, con el desarrollo de la Inteligencia Artificial, los ciberdelincuentes han encontrado una herramienta más para cometer el ataque; por ejemplo, al clonar la voz.

¿Cómo evitar estafas con clonación de voz e Inteligencia Artificial?

¿Cuál es el modus operandi? Para la clonación de voz, los delincuentes obtienen una pequeña muestra del audio de la víctima (ya sea por medio de una llamada, de una nota de voz o un video).

De acuerdo con el Consejo Nacional de Seguridad Privada, una vez que tienen la muestra, los ciberdelincuentes pueden falsificar audios y mandarlos a los conocidos o familiares de la víctima para pedirles dinero e información con la excusa de que "están en peligro" o "acaban de sufrir un accidente".

¡No caigas en pánico!

Puedes protegerte de dichas estafas con las siguientes medidas:

McAfee recomienda establecer una palabra clave verbal con tus familiares o amigos cuando te manden un mensaje de voz pidiendo ayuda. Sólo la deben saber ustedes.

En caso de recibir un mensaje de voz donde te piden dinero, corrobóralo con la persona que supuestamente te está hablando. De esta manera confirmarás la identidad de la persona y si se trata de una emergencia real.

No descargues aplicaciones de dudosa procedencia, ya que podrían estar grabando tu voz sin que te des cuenta.

Por último, no compartas tu información privada en redes sociales.

¿Qué hacer si fuiste víctima de una estafa por clonación de voz con Inteligencia Artificial?

Ante este tipo de estafas, donde las víctimas pueden caer fácilmente, la Secretaría de Seguridad y Protección Ciudadana recomienda:

  1. No actuar de manera impulsiva al recibir el mensaje o llamada de un conocido en "peligro". Al mantener la calma, es posible pensar con claridad.
  2. Guardar pruebas y evidencias de la estafa para realizar la denuncia correspondiente.
  3. Una vez hayas identificado la potencial estafa, contacta a la Policía Cibernética de tu localidad para levantar el reporte.

Así puedes prevenir que otras personas también sean víctima de delitos con Inteligencia Artificial.

Leer más de Nacional

Escrito en: estafas voz clonación

Comentar esta noticia -

Noticias relacionadas

Siglo Plus

+ Más leídas de Nacional

LECTURAS ANTERIORES

Fotografías más vistas

Videos más vistos semana

Cómo prevenir estafas por clonación de voz con IA

Clasificados

ID: 2371184

YouTube Facebook Twitter Instagram TikTok

elsiglo.mx