Skip to content
ViralFalso
La afirmación ha demostrado ser falsa, al ser contrastada con las fuentes y datos más serios y confiables.

Imágenes sobre Lali creadas con inteligencia artificial: por qué pueden ser violencia digital

Si tenés sólo unos segundos, leé estas líneas:
  • Circularon en redes sociales posteos contra la artista acompañados por imágenes creadas con IA, que la muestran supuestamente realizando un acto delictivo. Las mismas fueron retuiteadas por el presidente Javier Milei.
  • Para los especialistas, este tipo de imágenes viola la autonomía de la persona retratada, ya que se difunden sin su consentimiento y la representan en situaciones desfavorables.
  • Además, el hecho de que un jefe de Estado comparta este tipo de contenidos con fines de hostigar puede legitimar este comportamiento en sus bases de apoyo, según señalaron los expertos consultados.

En la última semana, en el marco de un enfrentamiento entre el presidente Javier Milei y la cantante “Lali” Espósito, circularon en redes sociales posteos contra la artista acompañados por imágenes creadas con herramientas de inteligencia artificial (IA), que la muestran supuestamente realizando un acto delictivo. El mismo mandatario reposteó varias de estas publicaciones a través de su cuenta de X (ex Twitter).

 La IA está revolucionando la forma en que las personas acceden a la información y producen, reciben e interactúan con el contenido. Si bien herramientas como ChatGPT, DALL-E o Midjourney ofrecen grandes oportunidades, también plantean riesgos y desafíos. A esta altura sabemos que una de las grandes desventajas es que puede generar desinformación a través de plataformas que crean imágenes y videos falsos.

A su vez, especialistas advierten sobre el uso de esta tecnología para crear deepfakes o generar imágenes que parecen realistas de personas en diversos escenarios o situaciones no consentidas, lo que puede facilitar nuevas vías de extorsión, acoso, hostigamiento y otras formas de violencia digital, que afectan principalmente a mujeres y menores de edad.

Pero, ¿qué es la violencia digital? ¿Cómo incide sobre ella la inteligencia artificial? ¿Qué están haciendo gobiernos, compañías tecnológicas y organizaciones no gubernamentales frente a esta problemática? Te lo contamos en esta nota.

¿Qué es la violencia digital?

Desde octubre de 2023, se encuentra en vigencia en la Argentina la Ley 27.736, más conocida como “ley Olimpia”: una normativa que incorpora el concepto de “violencia contra mujeres en entornos digitales” a la Ley 26.485 de “Protección Integral a las Mujeres”.

Según indica la legislación, se entiende por violencia digital o telemática a “toda conducta, acción u omisión en contra de las mujeres basada en su género que sea cometida, instigada o agravada, en parte o en su totalidad, con la asistencia, utilización y/o apropiación de las tecnologías de la información y la comunicación, con el objeto de causar daños físicos, psicológicos, económicos, sexuales o morales tanto en el ámbito privado como en el público a ellas o su grupo familiar”.

En este sentido, la misma norma busca proteger “los derechos y bienes digitales”, así como “el acceso, permanencia y desenvolvimiento en el ámbito digital”. También establece una serie de medidas cautelares de protección que puede dictar la Justicia. Entre ellas, “ordenar que las plataformas digitales quiten los contenidos que generan la violencia”.

Violencia digital en tiempos de inteligencia artificial

El informe de Unesco “Violencia de Género Facilitada por la Tecnología en la Era de Inteligencia Artificial Generativa”, publicado el año pasado, advierte que “la inteligencia artificial generativa ha amplificado los métodos existentes y ha aumentado las vías potenciales para la violencia de género facilitada por la tecnología que enfrentan muchas comunidades en línea”.

Y agrega: “La inteligencia artificial generativa puede llevar a un aumento en el número de atacantes, la creación de ataques sostenidos y automatizados y la generación de imágenes, audio, texto y video falsos. Esto hace que los daños existentes, como el discurso de odio, el acoso cibernético, la desinformación y la suplantación de identidad -todos los cuales se encuentran entre los 5 vectores más comunes de la Violencia de Género Facilitada por la Tecnología- tengan un alcance mucho más amplio y sean más peligrosos”.

Para Javier Pallero, analista de políticas públicas de Internet, “las imágenes creadas con IA pueden incitar a la violencia mostrando, por ejemplo, a una persona supuestamente cometiendo un delito o realizando un acto cuestionable. Al igual que en otros casos de desinformación, esto serviría para instigar a las personas a tomar represalias contra quien aparece en la información”.

En cuanto al daño que este tipo de ilustraciones pueden generar en términos de hostigamiento, el experto resaltó que “no es necesario que las imágenes sean muy creíbles o estén bien elaboradas, ya que aquí lo que importa es la intención de hostigar y la sistematicidad de la conducta”.

Según Eugenia Mitchelstein, docente e investigadora del Departamento de Ciencias Sociales de la Universidad de San Andrés (UDESA), “no hay evidencia todavía sobre la relación entre las imágenes creadas por IA y la violencia”. No obstante, “las imágenes de Lali Espósito escapando con bolsos de dinero de un grupo de chicos y chicas pobres o aparentemente famélicos, como si los hubiera asaltado, son violentas en sí mismas”, señaló.

La viralización de las imágenes creadas con IA

El hecho de que estas imágenes sobre Lali hayan sido retuiteadas por Milei aumenta su visibilidad. “El Presidente tiene millones de seguidores. Cualquier imagen que tuitee va a verse más que si la tuitea alguien con cientos o miles. Más que cambiar la opinión de quienes vean la imagen sobre la persona retratada, lo que probablemente haga es reforzar las opiniones de quienes ya pensaban así”, sostuvo Mitchelstein.

Y agregó: “Más allá del efecto que produzcan, este tipo de imágenes viola la autonomía de la persona retratada, ya que se difunden sin su consentimiento y la representan en situaciones desfavorables. Pero, sobre todo, en situaciones inventadas”. 

También puede ocurrir que un presidente sea atacado a través de memes o con información falsa sobre su salud mental. Pero, Pallero agregó que “el hecho de que un jefe de Estado, una figura de autoridad, comparta este tipo de información con fines de hostigar es especialmente grave”. La razón se debe a que “una figura de autoridad tiene el poder de legitimar comportamientos y conductas, de modo que su base de apoyo puede sentirse habilitada para intensificar el tono de las agresiones”.

Fernando Cerimedo, asesor y responsable tecnológico de la estrategia digital de Milei, sostuvo en una entrevista con Ernesto Tenembaum, en Radio Con Vos, que los “reposteos” del presidente a publicaciones de X contra Lali “no son un agravio”, ya que “Milei no es el que está haciendo estas imágenes, sino un usuario que las sube”. Asimismo, el experto en marketing digital defendió a Milei: “¿Una artista puede subirse a un escenario y decir la cantidad de cosas que quiera, y un presidente no puede?”. 

Cómo combatir la violencia digital que usa IA

Para Unesco, combatir los daños de la violencia digital debido a la inteligencia artificial “requiere una combinación de medidas tanto por parte de los desarrolladores de inteligencia artificial generativa como de las empresas tecnológicas que las alojan, acciones centradas por parte de las organizaciones de la sociedad civil, regulaciones y políticas por parte de los gobiernos, y aumentar la conciencia a nivel individual”. 

En este sentido, la Unesco realizó en 2022 el documento “Recomendación sobre la Ética de la Inteligencia Artificial” que adoptaron 193 estados, entre ellos la Argentina. En junio del año pasado, el Gobierno nacional también elaboró la guía “Recomendaciones para una Inteligencia Artificial Fiable”. Por su parte, la Unión Europea acaba de aprobar su propia ley integral de IA, que establece determinados límites al uso de esta tecnología.

En cuanto a las empresas tecnológicas, existe un llamado a desarrollar métodos robustos de identificación de imágenes y videos generados con inteligencia artificial, como por ejemplo enlucir marcas de agua. También, permitir que los usuarios informen sobre cuentas que generan contenido dañino, especialmente aquellos que están incitando a la violencia, y que las compañías actúen rápidamente para eliminar aquel que infrinja las normas de su comunidad.

A principio de año, se viralizaron en redes sociales varias deepfakes con imágenes manipuladas de Taylor Swift: contenidos pornográficos (también de carácter violento) generados con IA sin el consentimiento de la artista. La mayoría se publicaron en X, que decidió bloquear las búsquedas relacionadas con la cantante como medida de protección, según la agencia Associated Press

En enero de 2021, tanto Meta como Twitter suspendieron las cuentas del ex presidente de los Estados Unidos, Donald Trump, luego del asalto al Capitolio, en donde Trump fue acusado de publicar una serie de mensajes que alentaban a sus partidarios a irrumpir en el recinto de Washington. En noviembre de 2022, Elon Musk restableció la cuenta de X a Trump y lo mismo hizo Meta con Facebook e Instagram en febrero de 2023.

También es clave para disminuir el impacto de la desinformación basada en IA la alfabetización mediática. En esta nota de Chequeado, se pueden encontrar recomendaciones para no dejarse engañar y saber cuándo una foto fue creada con inteligencia artificial.

Temas

Comentarios

  • Gustavo19 de febrero de 2024 a las 11:24 amLas imágenes son obviamente falsas. Se llama sátira y como bien saben está amparada por la libertad de expresión y de prensa.
  • Andrés19 de febrero de 2024 a las 6:44 pmEs una parodia que retrata literalmente el comportamiento de esta persona que perjudica al país
  • Raul19 de febrero de 2024 a las 8:04 pmMe causa mucha gracia leer sobre los expertos, expertos en qué? Este mundo está patas para arriba, toda la vida de han hecho dibujos de personas conocidas, hay temas mucho más importantes que está piba
  • Walter24 de febrero de 2024 a las 8:42 amAcá no tiene nada que ver la inteligencia artificial. A esas imágenes las puede hacer también un artista, y está claro que no son fotografías sino caricaturas. Por lo tanto no son imágenes que pretendan tener veracidad fotográfica, sino simples memes que sintetizan una opinión válida, y la opinión es que la artista cobró mucho dinero del Estado, que no pudo ser invertido en necesidades básicas de la población humilde y necesitada de las provincias pobres de nuestro país. Además, la artista pretendió tener una posición de privilegio para referirse en forma despectiva al nuevo presidente de la nación, que está intentando terminar con el fraude y la corrupción que permiten ese tipo de robo del dinero público. Fin.

Valoramos mucho la opinión de nuestra comunidad de lectores y siempre estamos a favor del debate y del intercambio. Por eso es importante para nosotros generar un espacio de respeto y cuidado, por lo que por favor tené en cuenta que no publicaremos comentarios con insultos, agresiones o mensajes de odio, desinformaciones que pudieran resultar peligrosas para otros, información personal, o promoción o venta de productos.

Muchas gracias

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *