Skip to content

Deepfakes en escuelas: crean videos alterados con inteligencia artificial para “desnudar” a compañeras

Si tenés sólo unos segundos, leé estas líneas:
  • Los deepfakes son videos generados sintéticamente con tecnología basada en inteligencia artificial. El objetivo es crear secuencias falsas pero realistas.
  • La utilización de esta tecnología para crear videos falsos pornográficos se vio en casos de escuelas de Córdoba, Chaco, Río Negro y la Provincia de Buenos Aires, un delito que viola los derechos de niños y adolescentes.
  • Se trata de un fenómeno mundial, con casos registrados en Corea del Sur, Estados Unidos, Europa y más. A qué debemos prestar atención.  

La inteligencia artificial (IA) está al alcance de un click en muchos dispositivos y los adolescentes suelen explorar las nuevas tecnologías con una facilidad mayor a otras generaciones. Esto genera un desafío porque, por fuera de los avances que la IA puede brindar en el ámbito educativo, se están presentando casos en distintas provincias argentinas y en el mundo del uso de esta tecnología para cometer ciberdelitos

Específicamente, hay menores de edad que usan la inteligencia artificial para “desnudar” en fotos o videos a compañeras de escuela y vender esas imágenes. 

Existen casos en Córdoba, en Río Negro, en Chaco y en la Provincia de Buenos Aires. Son adolescentes que denuncian que sus compañeros de secundaria realizaron deepfakes pornográficos con imágenes suyas para crear videos falsos. 

¿Qué es un deepfake? ¿Qué casos hay en la Argentina y en el mundo? ¿Cómo se puede estar alerta? Te lo contamos en esta nota.

¿Qué es un deepfake?

Los deepfakes son videos generados sintéticamente con tecnología basada en inteligencia artificial con el objetivo de crear secuencias falsas pero realistas. En éstas se busca modificar la apariencia física e incluso la voz de las personas y hacerles decir o hacer algo que nunca dijeron o hicieron.

Llevan ese nombre por la combinación de las expresiones deep learning (aprendizaje profundo, en inglés) y fake (falso, en inglés). Entonces, el término indica que es un producto falso creado con la tecnología de aprendizaje profundo.

Consiste en recopilar cientos de imágenes de una persona y enseñarle a un programa a interpretar sus distintos modismos para poder adaptarlos a distintas situaciones. 

El término se popularizó en los últimos años por la viralización en redes sociales de videos falsos de famosos o políticos. 

Como te contamos en esta nota de Chequeado, el problema de los deepfakes es que pueden utilizarse para distorsionar discursos de figuras políticas. En estos videos (1 y 2) se explica en detalle (y se alerta sobre) la técnica, utilizando un deepfake del ex presidente estadounidense Barack Obama con la voz de Jordan Peele y otro del actor Tom Cruise. Incluso Taylor Swift fue víctima de un deepfake en enero de 2024, cuando se viralizaron imágenes pornográficas falsas de la cantante en la red social X.

Pero el temor a ser víctima en carne propia de una desinformación traspasó los casos de famosos o políticos y ahora cualquier persona puede ser protagonista de un deepfake. 

Casos de deepfakes en escuelas en la Argentina

La inteligencia artificial ahora también es utilizada para producir contenidos sexuales no consentidos entre adolescentes, un delito que viola directamente los derechos de niños y adolescentes.

El episodio más reciente sucedió en una escuela privada de Resistencia, Chaco. A mediados de octubre, un grupo de alumnas denunció ante las autoridades del colegio Don Bosco que sus propios compañeros de clase habían tomado fotos de sus redes sociales y las manipularon con inteligencia artificial para sacarles la ropa y vender dichas imágenes por canales masivos como WhatsApp y Telegram.

De acuerdo con lo que reportó Diario Chaco, serían 7 víctimas y, una de ellas, realizó la denuncia formal que derivó en una investigación en curso del Departamento de Ciberdelitos Contra la Niñez y Adolescencia de la Policía provincial.

Un caso similar se conoció pocos días antes en la Provincia de Buenos Aires. En el colegio San Agustiniano de San Martín, un adolescente de 15 años robaba fotos de las redes sociales de sus compañeras, las procesaba con inteligencia artificial y las vendía como imágenes pornográficas. Un compañero se hizo pasar por vendedor para comprobar quién era el sospechoso.

Existe una causa en manos del Fuero de Responsabilidad Penal Juvenil del departamento judicial de San Martín -que depende del Ministerio Público de la Provincia de Buenos Aires-, que realizó un allanamiento en la casa del acusado y está realizando las pericias pertinentes. Los padres esperan también que avance la investigación sobre los mayores que compraron el material a través de las plataformas Discord y Telegram.

En agosto, en un club de Río Negro, un grupo de adolescentes de 14 y 15 años adulteraron fotos de sus compañeras para crear imágenes de abuso sexual infantil. Según informó el diario Río Negro, una de las familias de las afectadas presentó una denuncia que derivó en una investigación.   

En Córdoba, en cambio, la Justicia provincial logró avanzar en un caso similar e imputar al acusado de 18 años por lesiones y violencia de género. El alumno del Instituto Preuniversitario Manuel Belgrano creaba fotos sexuales mezclando caras de sus compañeras con el cuerpo de otras mujeres en videos descargados de páginas pornográficas. A las imágenes les ponía el nombre y apellido de las víctimas. Entonces, ellas se enteraron de lo que pasaba porque empezaron a recibir solicitudes de seguimiento en Instagram de hombres de entre 40 y 50 años, según informó Clarín. 

Deepfakes pornográficos: un fenómeno mundial

Según un informe de Europol, la Oficina Europea de Policía, crecieron un 360% las imágenes sexuales de menores realizadas con IA. Esta organización realizó un trabajo de campo en 2023 en España trabajando con la Justicia sobre un caso en un pueblo de 30 mil habitantes en la región de Extremadura en donde más de 20 familias denunciaron que sus hijas habían sido víctimas de deepfakes pronográficos. 

La preocupación mundial es tal que el FBI en los Estados Unidos emitió un comunicado en 2023 para alertar a los ciudadanos sobre los peligros de esta práctica.

Pero quizás el caso más extremo se vio en Corea del Sur con protestas en las calles para combatir los deepfakes porno. Tal fue la presión social que los legisladores surcoreanos aprobaron en septiembre un proyecto de ley que tipifica como delito ver o poseer imágenes y videos deepfakes sexualmente explícitos, con condenas que incluyen penas de prisión y multas.

¿Cómo estar alerta para detectar un deepfake?

Los avances de la tecnología perfeccionan cada vez más los videos creados con inteligencia artificial para que sean más realistas. Con lo cual, el poder de observación a los detalles cobra relevancia a la hora de querer detectar un deepfake

El MIT Media Lab, un laboratorio dentro de la Escuela de Arquitectura y Planificación en el Instituto de Tecnología de Massachusetts, aconseja prestar atención a la cara de quien aparece en la grabación y preguntarse: “¿La piel parece demasiado suave o demasiado arrugada? ¿El envejecimiento de la piel es similar al del cabello y los ojos?”.

También es útil fijarse en los ojos, las cejas, los anteojos y la iluminación, además de si las sombras están donde deben estar y si la persona parpadea demasiado o muy poco. Hay que prestar atención al vello facial o a la falta del mismo, y observar los movimientos de los labios y si están sincronizados con la voz. 

Para más consejos, mirá esta nota de Chequeado.

Fecha de publicación original: 04/11/2024

Temas

Comentarios

Valoramos mucho la opinión de nuestra comunidad de lectores y siempre estamos a favor del debate y del intercambio. Por eso es importante para nosotros generar un espacio de respeto y cuidado, por lo que por favor tené en cuenta que no publicaremos comentarios con insultos, agresiones o mensajes de odio, desinformaciones que pudieran resultar peligrosas para otros, información personal, o promoción o venta de productos.

Muchas gracias

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *