Aumentan las estafas con voces generadas por inteligencia artificial
Prestemos atención a las llamadas o mensajes con supuestas urgencias de amigos o familiares porque esas son formas comunes de engaño.
Antonio Paredes / 07.03.2023 / 7:34 pm
Usualmente, la tecnología favorece a nuestra sociedad porque permite que podamos comunicarnos, continuar nuestra formación académica, hacer negocios o atender a clientes en innumerables países, entre otros ejemplos sobre el importante aporte del desarrollo tecnológico a nivel global.
Sin embargo, la tecnología también puede ser usada para propósitos o fines contrarios al beneficio de los usuarios. Los casos más conocidos son los de cibercriminales, los cuales impulsan campañas de malware o software potencialmente peligroso, a esto se suman las campañas de phishing, las cuales pretenden engañar a los usuarios para obtener sus datos bancarios y/o credenciales que son del interés del atacante.
Uno de estos casos de mal uso de la tecnología se llevó a cabo utilizando inteligencia artificial para que la voz falsa sea idéntica a la de una persona vinculada o relacionada con el usuario atacado. Concretamente, una mujer de 73 años llamada Ruth Card fue engañada por medio de una llamada donde los atacantes simulaban la voz de su nieto Brandon, el cual indicaba que se encontraba en la cárcel sin billetera ni celular y que necesitaba mucho dinero debido a su situación.
Ruth y su esposo retiraron 3,000 dólares canadienses, los cuales equivalen a US$2,200; sin embargo, al acudir a otra oficina para continuar con su retiro de dinero, un gerente del banco los ayudó a identificar la estafa debido a que otro cliente fue afectado por la misma modalidad: engaño a través de un deepfake de audio.
Lamentablemente, este tipo de estafas con voces generadas por inteligencia artificial se encuentran en aumento y el principal blanco suelen ser los adultos mayores, los cuales son engañados al pretender ayudar a un familiar en problemas. Algo preocupante es que este tipo de tecnologías puede engañar a más personas de las que creemos.
Para que una IA simule nuestra voz, esta podría ser obtenida desde un video en nuestras redes sociales: Facebook, TikTok, Instagram u otras vías, según nuestra fuente informativa. Es necesario que ante situaciones similares mantengamos la calma e intentemos contactar con la persona real, solicitando una videollamada o consultar por información personal que solo la persona real pueda conocer.
Prestemos atención a las llamadas o mensajes con supuestas urgencias de amigos o familiares porque esas son formas comunes de engaño. Rastrear a los estafadores de voz suele ser complicado porque usan equipos desde cualquier parte del mundo, complicando que algunas autoridades puedan hacer algo debido a la jurisdicción de cada caso.
TECNOLOGÍA 21
Medio especializado en publicaciones tecnológicas con enfoque en negocios desde 2007.
Nuestro alcance principal comprende Iberoamérica.