Skip to content

Estafas virtuales: cómo te pueden engañar con audios o videos creados con inteligencia artificial

Si tenés sólo unos segundos, leé estas líneas:
  • La inteligencia artificial se utiliza, a nivel internacional, para suplantar la identidad de famosos, o para engañar a familiares y amigos y pedir dinero a cambio.
  • Para detectar videos hechos con esta tecnología, es necesario prestar atención a la sincronización de los labios con la voz. También en audios es necesario escuchar la calidad del sonido y la pronunciación de algunas palabras para detectar falencias.
  • Aunque en la Argentina la inteligencia artificial no es un recurso utilizado de forma masiva por los ciberdelincuentes, en esta nota te contamos a qué estar atentos para no caer en un engaño de este tipo.

Con la proliferación de herramientas de inteligencia artificial, que permiten desde clonar la voz de una persona hasta crear imágenes y videos realistas a partir de las instrucciones de un usuario, surgen nuevas modalidades delictivas.

En las últimas semanas, Nati Jota, periodista y conductora del programa de streaming de Olga, denunció en sus redes sociales que suplantaron su identidad con esta tecnología en un video de Instagram para promocionar una supuesta estafa.

¿Cómo se utiliza la inteligencia artificial para realizar estafas? ¿Cómo podemos protegernos de esta nueva modalidad de engaño? Te lo contamos en esta nota.

La suplantación de identidad en famosos

El 6 de junio último, Nati Jota denunció una estafa en su cuenta de X y aseguró que el modus operandi incluyó la presencia de la inteligencia artificial.

Al video de Nati Jota, se suman, a nivel internacional, diversos casos de estafas en donde se utilizó la inteligencia artificial para suplantar la identidad de famosos. Utilizar la imagen de celebridades para engañar y hacer caer en una estafa no es algo nuevo, pero ahora se suma la inteligencia artificial para facilitarle el camino a los ciberdelincuentes.

Fue, por ejemplo, el caso del actor estadounidense Tom Hanks, quien, en octubre de 2023, denunció en su cuenta oficial de Instagram que estaban utilizando una versión de él creada con inteligencia artificial para promocionar un supuesto plan de seguro dental.

En 2022, circuló también un video manipulado en el que parecía que el propietario de X y director general de Tesla, Elon Musk, estaba promocionando una plataforma de criptomonedas. En la región también tocó el turno de la cantante Shakira, cuya identidad fue utilizada en mayo de este año para invitar a un supuesto proyecto de inversión.

El vishing o fraude telefónico y la utilización de inteligencia artificial 

La inteligencia artificial no solo se utiliza para suplantar la identidad de famosos y hacernos caer en alguna estafa; también para imitar la voz de un familiar o conocido.

El término vishing compila la palabra “voz” en inglés -voice- y phishing -una técnica de suplantación de identidad para sustraer datos personales y bancarios-, y se trata de una práctica fraudulenta que consiste en el uso de una línea telefónica convencional para engañar a personas y obtener información delicada como pueden ser datos financieros.

Con la inteligencia artificial, al tradicional vishing se le suma el AI vishing, un tipo de fraude a través de la voz que engaña a la víctima haciéndole creer que habla con un familiar o amigo.

Existen decenas de casos a nivel internacional. En Hong Kong, por ejemplo, los delincuentes engañaron a un empleado para que realizara una transferencia de 200 millones de dólares hongkoneses (unos 24 millones de euros), haciéndole creer que hablaba con su jefe. En 2020 varios estafadores clonaron la voz del director de otra compañía para intentar hacerse con U$S 35 millones, aseguró Forbes.

La inteligencia artificial aprende a imitar a partir de muestras de voz e imágenes

Pero, ¿cómo se clonan las voces para producir un audio con inteligencia artificial? ¿Cómo se produce un video? La inteligencia artificial generativa permite crear piezas a través del análisis de muchos datos. En este caso, para clonar la voz se necesitan varios segundos de grabación de audio capturados de una persona.

Por esto, es tan sencillo hacerlo con personajes públicos, como políticos o celebridades: en internet hay decenas de audios de diversos famosos, que permiten recopilar información para producir los audios falsos. Y también es tan difícil hacerlo en el caso de alguien desconocido, si no se cuenta con una suficiente cantidad de audios.

Respecto a los audios de una conversación de WhatsApp, están protegidos con cifrado extremo, es decir que sólo el emisor y el receptor de la conversación tienen acceso a lo que se dice en ese chat.

Lo mismo ocurre con las imágenes: se necesitan varias fotos de una persona para hacer un video o una imagen con inteligencia artificial. Cuantas menos información pública haya de una persona de forma online, más difícil será para los ciberdelincuentes.

“Existen algunas alternativas gratuitas en línea -con ciertas limitaciones – pero también hay una interesante oferta de herramientas comerciales a costos accesibles como Resemble o Eleven Labs que, además de la clonación de la voz, permiten una posterior ecualización para modular distintos aspectos, incluyendo la pronunciación”, describió a Chequeado Mauro Eldritch, director de la empresa de seguridad Birmingham Cyber Arms LTD.

Una tecnología que, por el momento, no está al alcance de todos

También existen herramientas como VALL-E, un modelo de lenguaje realizado por Microsoft que permite imitar el habla de una persona a partir de 3 segundos de grabación, según asegura la propia desarrolladora. De todos modos, esta tecnología aún está lejos del alcance de los estafadores: para utilizar la herramienta hay que recibir una aprobación de la compañía, algo que no está al alcance de todo el mundo.

“Ahora la inteligencia artificial permite hackear cualquier dato biométrico -la voz, la cara de una persona, los gestos- el cuento del tío con esta tecnología se puede hacer con cualquier forma. Y cada vez con menos datos”, agregó Juan Corvalán, cofundador y director del Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho de la UBA.

Emiliano Piscitelli, especialista en seguridad informática y director del grupo de investigación en Ingeniería Social de la Universidad Tecnológica Nacional (UTN) de La Plata, explicó a este medio que “existen otros programas que trabajan con inteligencia artificial que sólo con escuchar un minuto pueden hacerte decir cualquier cosa”. De todos modos, Piscitelli agregó que no tiene conocimiento de una estafa de este estilo en la región.

Desde la Unidad Fiscal Especializada en Ciberdelincuencia (UFECI) también aseguraron a Chequeado que por el momento no se han detectado en el país casos de estafas virtuales en los que se haya utilizado inteligencia artificial para imitar voces o imágenes.

“Es cierto que la tecnología está disponible y que, en teoría, es posible imitar voces o rostros con inteligencia artificial, pero creemos que eso no está al alcance de todo el mundo y que hoy día la mayoría de las organizaciones criminales no necesitan ese nivel de sofisticación para engañar al usuario promedio de internet”, afirmó a este medio Horacio Azzolin, titular de la entidad.

Y agregó: “Es posible que se use inteligencia artificial para preparar el texto de correos de phishing, pero tampoco nos consta”.

¿Cómo protegerse del vishing o fraude telefónico?

En audios que sospechemos que pueden estar hechos con inteligencia artificial, es importante escuchar la calidad del sonido y la pronunciación de algunas palabras para detectar falencias.

También, estar atentos a la entonación de las palabras, los espacios y la pronunciación de la persona que habla. ¿Es así como habla usualmente? Si es un familiar, ¿suele utilizar esas palabras, nos suele hablar de esa manera?

La herramienta más eficaz para protegernos es usar el sentido común. En general, una vez pasado el momento de la estafa, las víctimas analizan lo sucedido y encuentran diversas señales que deberían haber visto antes. 

Martina López, Investigadora de Seguridad Informática de ESET Latinoamérica, ofreció a Chequeado algunos consejos de seguridad:

  • Evitar atender, en lo posible, llamados de números desconocidos.
  • Activar las alertas de llamados anti-spam en disponibles en Android y iOS.
  • En caso de no contar con ello, usar una aplicación como True Caller, que permite identificar números desconocidos.
  • Estar atentos a no brindar información ante llamadas de personas desconocidas.

¿Cómo se pueden detectar videos hechos con inteligencia artificial?

En el caso de los videos presuntamente hechos con inteligencia artificial, es esencial prestar atención a la sincronización de los labios con la voz, a la entonación y las pausas naturales. También estar atentos a los movimientos de las figuras, y prestar atención al fondo: en diversas ocasiones los contenidos hechos con esa tecnología clonan las figuras pero con varios errores.

Además, prestar atención a los movimientos faciales irregulares e incluso sombras que no coinciden con la fuente de iluminación.

Es importante examinar el contexto en el que se presenta el contenido. ¿Coincide con el tono y el estilo habitual de la persona o la organización que se muestra en el video? Si algo parece fuera de lugar o poco probable, es posible que se trate de un deepfake.

Ante dudas sobre la veracidad de un video o audio, es posible compararlos con fuentes confiables y verificadas como otros sitios, entrevistas o escritos para obtener una perspectiva más completa y precisa. Si solo figura en un sitio o lo recibimos por algún medio como WhatsApp, debemos sospechar.

Si querés saber cuáles son las estafas más frecuentes a las que tenés que estar atento, qué hacer si sos una víctima y cómo podés evitarlas, entrá a este especial que elaboramos desde Chequeado.

Temas

Comentarios

Valoramos mucho la opinión de nuestra comunidad de lectores y siempre estamos a favor del debate y del intercambio. Por eso es importante para nosotros generar un espacio de respeto y cuidado, por lo que por favor tené en cuenta que no publicaremos comentarios con insultos, agresiones o mensajes de odio, desinformaciones que pudieran resultar peligrosas para otros, información personal, o promoción o venta de productos.

Muchas gracias

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *