Dios no lo quiera, pero imagínense que un día reciben una llamada telefónica en la que uno de sus hijos o nietos le dice, entre lágrimas, que lo acaban de secuestrar. La sensación de angustia no me la quiero ni imaginar. Pero ojo, se puede tratar de un engaño para que giren plata mientras su familiar se encuentra tranquilo con los amigos. Esa voz que pensaban que era la de su hijo o nieto, en realidad no lo era; estaba fabricada por inteligencia artificial (IA).
Traigo lo anterior a colación porque cada vez se están produciendo más casos como estos en todo el mundo, en los cuales delincuentes sin escrúpulos han acudido a la IA generativa para simular la voz de alguien para extorsionar a sus familiares. Según las autoridades estadounidenses, que tienen bien mapeados estos delitos, tan solo el año pasado se registraron 3.000 millones de dólares en pérdidas.
En una crónica publicada el sábado, ‘The Wall Street Journal’ daba cuenta de una madre que transfirió 31.000 dólares (casi 130 millones de pesos) para que soltaran a su hija, quien la había llamado desesperada de que la iban a matar si no hacía lo que los delincuentes ordenaban. La hija, de 26 años, no la había llamado. Estaba en su apartamento descansando. La voz era de IA.
Según la empresa de seguridad y antivirus McAfee, la IA tan solo necesita un audio de tres segundos para clonar una voz con una perfección del 85 por ciento. Según informes de las autoridades estadounidenses, las víctimas predilectas de estos crímenes suelen ser los abuelos, que no están tan enterados de las posibilidades que ofrece la tecnología, en particular la IA.
Este tipo de delitos, asegura un experto en seguridad, “se basa en la psicología y en piraterar el grupo de estructuras cerebrales interconectadas, es decir, el sistema límbico”. Los delincuentes usan la supuesta voz del familiar para generar un cortocircuito de pánico en la víctima. “Cuando los humanos están asustados, se vuelven estúpidos y no toman las mejores decisiones”, señaló el experto a la cadena CBS.
La IA tan solo necesita un audio de tres segundos para clonar una voz con una perfección del 85 por ciento
¿Y qué hacer ante esto? ¿Qué hacer si su hijo o su nieto los llama desconsolado y los amenaza con matarlos si no giran plata? Pues fácil. Determinen una serie de palabras código que solo sepan entre ustedes para cerciorarse de que están hablando con su familiar. En caso de una emergencia, por ejemplo, comprométanse a decir una palabra, como por ejemplo decir “Dios” dos veces, una después de otra. La ausencia de este código sería una prueba de que están siendo víctimas de una extorsión.
En Colombia, este acto criminal aún es poco común, pero sí hay una práctica más extendida que es la del ‘vishing’, que no es otra cosa que llamadas que recibe la víctima, pero a nombre de empresas o entidades bancarias ofreciendo beneficios. En una rápida búsqueda en internet, varios bancos han publicado recomendaciones sobre cómo combatirlo. A su vez, la Fiscalía cuenta con un documento en el que habla del mismo (
puede consultarlo en este enlace).
En fin, ojalá esta columna les sirva para tomar medidas entre ustedes para evitar un trago amargo, para impedir que les saqueen la cuenta con un burdo engaño mientras están angustiados pensando en que algo les va a pasar a sus seres más queridos. Y ojo, uno piensa que esto no le pasará a uno, que solo les pasa a los demás. Y no, cuando menos se lo piensen, terminan recibiendo una llamada.
Entonces, nada como la creación de un protocolo familiar, que no deberían compartir con nadie, para saber lidiar con estas situaciones e identificar de manera inmediata si están siendo víctimas de un engaño. EL TIEMPO publicó un informe al respecto a finales del año pasado, con ejemplos concretos. En sus manos está cuidarse y definir códigos dependiendo de la situación que ustedes mismos determinen. Ring, ring.
DIEGO A. SANTOS
Analista digital
En X: @DiegoASantos