Nacionales

¡Cuidado! Estafadores ‘clonan’ la voz de autoridades y pueden hacerlo con la de tus familiares

Con la inteligencia artificial, los estafadores solo necesitan capturar unos segundos del audio de una persona (tomado de redes sociales) para ofrecer una suplantación convincente.

Edición fotográfica: Farah Veliz

 Bolivia

En plena era digital, la tecnología está avanzando a pasos agigantados, y con ello, lamentablemente, también lo hacen las tácticas de los ciberdelincuentes. En los últimos días en la capital cruceña, se ha evidenciado el uso cada vez más frecuente de la inteligencia artificial para perpetrar estafas a través de WhatsApp y llamadas telefónicas.

Publicidad

Los dos casos más conocidos han sido las estafas usando los nombres y las voces del exalcalde de Warnes, Mario Cronenbold, y del asambleísta departamental Zvonko Matkovic.

El primer caso se dio a conocer por parte de una joven comerciante que fue víctima de una estafa por parte de delincuentes que utilizaron la voz, imagen y nombre de Cronenbold. ¿Cómo lo lograron? Con la ayuda de la inteligencia artificial.

Todo comenzó cuando un individuo que se hacía pasar por Cronenbold contactó a una joven a través de WhatsApp para realizar una compra en su tienda. Ganándose su confianza, los estafadores comenzaron a solicitarle una serie de favores, pidiéndole que realizara compras adicionales y prometiendo devolverle el dinero.

La joven relató su experiencia: «Me dijo que antes de llevarle los conjuntos, le hiciera un favor de comprarle un ramo de flores y dos whiskys, asegurándome de que él me iba a devolver todo. Hice un primer pago de 3000 bolivianos y luego me dijo que aumentó su pedido y debía depositar 8750 bolivianos. Realicé el pago y fue entonces cuando me di cuenta de que era una estafa, ya que no recibí respuesta alguna”.https://www.dailymotion.com/embed/video/x8yibyu#amp=1

En otro incidente, una empresa comercializadora de suplementos alimenticios fue estafada mediante el uso de la voz clonada del presidente de la Asamblea Legislativa Departamental, Zvonko Matkovic. Bajo la apariencia de un favor personal, el estafador persuadió a la propietaria del negocio para que realizara una compra adicional, de unas botellas de whiskys resultando en una pérdida de 3.000 bolivianos.

“Todo fue por llamada y puedo asegurar que era la voz del señor Zvonko, esta persona lo planeó bien, que nos sigue escribiendo, se sigue haciendo la burla, estoy con miedo, porque nos sigue amenazando”, advirtió esta segunda víctima.

Clonaron la voz de un familiar y fingieron un secuestro

Con la ayuda de la inteligencia artificial, los estafadores solo necesitan un audio con la voz de una persona (por WhatsApp o video) para crear una suplantación convincente. Las tecnologías de clonación de voz están disponibles tanto de forma paga como gratuita. Algunos expertos sostienen que con solo unos segundos de voz se puede conseguir una réplica muy similar. 

Este tipo de herramientas requerían solo un nivel básico de experiencia y conocimientos para su uso. Además, estas pueden replicar fácilmente acentos de todo el mundo. El estafador puede escribir el mensaje y que posteriormente se produzca la voz o simplemente utilizar un programa mientras habla, que va reemplazándola.

Un caso ocurrió en Arizona, Estados Unidos, donde una familia recibió una llamada de su hija, quien supuestamente había sido secuestrada. El secuestrador exigió un millón de dólares por su rescate. Gracias a que la madre logró comunicarse con su hija desde otra línea, la familia descubrió que todo era un engaño. La policía explicó que la voz clonada era indistinguible de la real.

¿Qué dice un experto?

Según Mariano Cabrera, experto en redes sociales, hoy en día, con tan solo diez segundos del audio de una persona hablando, se puede clonar su voz con herramientas tecnológicas, facilitando la creación de estafas y engaños. Además, los estafadores aprovechan la credibilidad de figuras públicas para persuadir a las personas a realizar depósitos monetarios, ya sea a través de códigos QR o depósitos bancarios, prometiendo beneficios económicos significativos.

“Años atrás todo esto era complicado porque necesitábamos tener muchos años de conocimiento en informática, procesamiento de música o audio. Hoy en día con una sola herramienta, que está al alcance de todos, se puede crear un modelo de la voz”, dijo.

Ante esta preocupante situación, el experto recomienda tres tipos de filtros para reducir el riesgo de caer en este tipo de estafas: el filtro personal, el filtro de los dispositivos y el filtro que involucra a las autoridades y empresas de telecomunicaciones.https://www.dailymotion.com/embed/video/x8xtmfc#amp=1

·  Filtro personal: desconfiar de todo, «hasta no tener a la persona delante de ti es preferible desconfiar porque la tecnología nos afecta».

·  Filtro de los dispositivos: mantener los dispositivos actualizados y con antivirus para evitar malware que pueda ser utilizado para capturar audio.

·  Filtro de las autoridades y telefónicas: crear un sistema para reportar este tipo de estafas y trabajar en conjunto para prevenirlas.

La clonación de voz es una tecnología relativamente nueva que está siendo utilizada por los estafadores de forma cada vez más frecuente. A medida que la tecnología avanza, es probable que este tipo de estafas se vuelvan aún más sofisticadas y difíciles de detectar.

Es importante estar al tanto de este tipo de estafas y tomar medidas para protegerse. Si recibe una llamada o mensaje de texto sospechoso, lo mejor es desconfiar y no dar ningún tipo de información personal.

Red Uno

Te puede interesar