Mundo - 18/6/24 - 11:00 AM

¡Pelen el ojo! Usan la IA para clonar voces y estafar en WhatsApp

Esta nueva modalidad se agrega a otros intentos de fraude, como el phishing o la suplantación de identidad, lo que supone un verdadero peligro.

 

Por: Redacción / Web -

La nueva modalidad de estafas por WhatsApp es inteligencia artificial, mismas que ahora se han vuelto tan sofisticadas que las personas están cayendo muy fácil sin percartarse que no son personas reales.

LEE TAMBIÉN: México en estado alerta por potencial ciclón

Al principio, las estafas eran por chat, alguien que nos hablaba desde la cuenta de un contacto, se hacía pasar por él, y usualmente pedía dinero para salir de un apuro.

Pero ahora todo ha evolucionados y los intentos de fraudes por WhatsApp se realizan desde números desconocidos procedentes de la India, Indonesia o Senegal, además,  surgen nuevas amenazas por estafas con voces de seres queridos creadas gracias a la Inteligencia Artificial (IA).

Mediante el uso de esta tecnología, los estafadores  clonan las voces de personas conocidas para realizar engaños a través del popular aplicación.

Esta nueva modalidad se agrega a otros intentos de fraude, como el phishing o la suplantación de identidad, lo que supone un verdadero peligro.

Según investigaciones, los estafadores utilizan un software de deepfake para crear audios falsos que imitan la voz de la víctima. Para ello, recopilan varios fragmentos de audio de la persona en cuestión, ya sea a través de sus redes sociales, llamadas telefónicas o grabaciones filtradas.

Ahora se puede programar un chatbot para que insista, haga chistes para alivianar la charla, meta la referencia a algún dato compartido si lo obtuvo; cosas que una persona mencionaría, que hacen que la estafa sea más creíble; que la persona falsa montada del otro lado de la llamada se comporte como una real.

La última versión de GPT-4o tiene unos modelos de generación de voces que parecen personas, y una capacidad para charlar entonando la voz que confundirían a cualquiera. Del otro lado, Google promete un asistente digital que monitorea una llamada de teléfono -pero no de WhatsApp, que está cifrada- y nos avisa si nos están pidiendo datos sospechosos.

¿Hay algo para hacer, frente a una tecnología que es cada vez más sofisticada a la hora de simular a otra persona? 

Lo primero es usar el sentido común: si nos escribe alguien con quien no tenemos un trato fluido, para pedirnos dinero (por poco que sea) y no es algo que sucede habitualmente, hay razón para sospechar.

Le podemos pedir hacer una llamada (que tratará de evitar, diciendo que está en un lugar donde no se puede hablar) para hablar con esa persona y hacerle preguntas que no están anotadas en ningún lado (de qué charlamos ayer, qué comimos aquella vez en lo un amigo, qué opino sobre tal tema, etcétera) para verificar su identidad; podemos probar con una videollamada (todavía el deepfake en vivo no es tan bueno, y menos para “enchufar” a WhatsApp); podemos pedirle una foto o descripción de algún rasgo que sabemos que la otra persona tiene (un tatuaje, una cicatriz), que son difíciles de clonar, ya que estos sistemas de clonación hacen foco en el rostro.

Pero sobre todo hay que desconfiar siempre, y no apresurarse: el apuro del otro por recibir dinero no puede ser nuestro, por muy desesperante que sea la situación que nos intenten vender.

EDICIÓN IMPRESA

Portada Diario Crítica