Ciberpatrullaje e inteligencia artificial: qué dispuso el gobierno de Milei y qué debates plantea la medida
- El Ministerio de Seguridad nacional estableció la creación de una Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS) para prevenir, detectar e investigar delitos con esa tecnología.
- En mayo último ya se había habilitado, mediante otra resolución, el ciberpatrullaje (el monitoreo sobre información pública que circula en redes sociales y sitios de internet) de fuerzas de seguridad.
- Entre los especialistas, algunos califican de positivo que el Estado se modernice con esta tecnología para prevenir crímenes. Sin embargo, otros apuntan al sesgo que puede producir la inteligencia artificial y advierten que la normativa enlista crímenes que no entran en la categoría de cibercrímenes.
La inteligencia artificial avanza a pasos agigantados y se mete de lleno en nuestro día a día. Esta semana, el Ministerio de Seguridad -a cargo de Patricia Bullrich- publicó una resolución en el Boletín Oficial que habilita la creación de una Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS) para prevenir, detectar e investigar delitos con esa tecnología. En mayo último ya se había habilitado, mediante otra resolución, el ciberpatrullaje de fuerzas de seguridad.
¿Qué es el ciberpatrullaje y qué dispuso la cartera liderada por Patricia Bullrich? ¿Qué implica la creación de la UIAAS? ¿Cuáles son los riesgos y las oportunidades? Te lo contamos en esta nota.
Qué dispuso el Ministerio de Seguridad
El 27 de mayo último, el Ministerio de Seguridad habilitó, mediante la Resolución N° 428/2024, a las fuerzas policiales y de seguridad federales a desarrollar “labores preventivas” en el espacio cibernético.
Un mes después, se creó -mediante la Resolución N° 710/2024– la Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS) que tiene como misión la “prevención, detección, investigación y persecución del delito y sus conexiones mediante la utilización de la inteligencia artificial”.
Según la normativa, la Unidad estará encabezada por la Dirección de Ciberdelito y Asuntos Cibernéticos, a cargo de Santiago González Bellengeri, e integrada por las fuerzas policiales y de seguridad federales.
En su artículo 4, se establece que algunas de las funciones de la UIAAS serán “patrullar las redes sociales abiertas, aplicaciones y sitios de internet”, y “analizar imágenes de cámaras de seguridad en tiempo real a fin de detectar actividades sospechosas o identificar personas buscadas utilizando reconocimiento fácil”.
Además, será de su competencia “utilizar algoritmos de aprendizaje automático a fin de analizar datos históricos de crímenes y de ese modo predecir futuros delitos y ayudar a prevenirlos” y “analizar actividades en redes sociales para detectar amenazas potenciales, identificar movimientos de grupos delictivos o prever disturbios”, entre otras funciones.
Bellengeri explicó al diario La Nación que aún no está definido el software que se utilizará ni tampoco los analistas que conformarán el equipo. “La realidad es que en este momento estamos empezando a ver las alternativas, las soluciones, generar protocolos, recién está naciendo”, dijo.
Según cita la resolución, “países como Estados Unidos de América, China, Reino Unido, Israel, Francia, Singapur, India, entre otros, son pioneros en la utilización de la inteligencia artificial en sus áreas de gobierno y fuerzas de seguridad”, y la utilizan en tareas como “análisis de video y reconocimiento facial, predicción de crímenes, ciberseguridad y detección de fraude”.
Para Jorge Litvin, abogado especialista en Cibercrimen y Ciberseguridad, no es nada nuevo esto del uso de la inteligencia artificial.
“Ahora es tema por la inteligencia artificial generativa, pero todo lo que no es generativa ya existe desde antes, y hace mucho que se viene usando para la prevención, investigación y judicialización de la delincuencia. En Estados Unidos y en Asia, por ejemplo, podés ver robots policías que patrullan y tienen inteligencia artificial, que pueden escanear rostros y patentes, se viene usando hace muchísimo”, sostuvo.
Qué es el ciberpatrullaje
Se suele llamar ciberpatrullaje al monitoreo sobre información pública que circula en las redes sociales para prevenir delitos. “Cuando hablamos de ciberpatrullaje nos referimos a inteligencia de fuentes abiertas, procedimientos de hacer investigación sobre espacios en los cuales las personas participan de manera abierta sin que haya que forzar ninguna clave ni medidas de privacidad”, explicó a este medio Beatriz Busaniche, magíster en Propiedad Intelectual y presidenta de la Fundación Vía Libre.
Bellengeri señaló que la función “no será investigar las redes de los ciudadanos. El ciberpatrullaje es igual al patrullaje de un oficial en la vía pública. No entra en los perfiles o busca información en particular de un perfil. No es inteligencia sobre las personas. Es investigación. Se busca el delito, no la persona”.
El funcionario dio un ejemplo: “En algún grupo aparece un comentario donde dice que se vende droga. En ese caso, se judicializa el hecho. Después la Justicia pedirá información sobre eso. No se buscarán datos sin una orden judicial”.
El ciberpatrullaje no es nuevo. Como contamos en esta nota, ocurrió también durante el gobierno de Alberto Fernández (Frente de Todos), cuando su ministra Sabina Frederic aplicó un protocolo durante la pandemia.
La opinión de los especialistas
La medida generó apoyo y críticas entre los especialistas. Litvin calificó de “positivo” el hecho de comenzar a utilizar inteligencia artificial en el monitoreo y prevención criminal.
“El Estado está intentando modernizar tecnologías que están muy oxidadas, en pos de mitigar el impacto de la delincuencia. No podemos seguir combatiendo la delincuencia moderna con métodos de otra época. Con el monitoreo se va a buscar detectar indicios o patrones que alerten sobre un posible comportamiento ilícito, no es que va a haber policía o autoridades leyendo todos los chats de la gente”, sostuvo.
Y agregó: “Se va a entrenar la herramienta para que determinadas palabras o imágenes sean detectadas y, gracias a eso, lo que se taguee como sospechoso, un humano lo revise y lo siga profundizando. Después entramos en la discusión de cómo y quién va a entrenar la herramienta. Esa es otra discusión que no conocemos, qué tan bien la usarán”.
Por su parte, Martín Becerra, investigador del Conicet y director del Centro en Industrias Culturales y Espacio Público de la Universidad Nacional de Quilmes, señaló, en una nota de análisis en El DiarioAr, que la resolución del Gobierno nacional es imprecisa “respecto del alcance de las tareas encomendadas a la Unidad, que depende de la Unidad Gabinete de Asesores de la ministra”.
Y agregó: “Predecir comportamientos futuros, sentenciándolos como delictivos en base a criterios de programación algorítmica, es una atribución desproporcionada que el gobierno argentino se arroga sin advertir la contradicción con la protección de los derechos humanos que compromete al Estado, al menos en sus normas legales”.
En la misma línea, Busaniche apuntó contra los sesgos que puede generar la inteligencia artificial. “Los sistemas de inteligencia artificial funcionan de forma probabilística con márgenes de error variables y conllevan fuertes sesgos que suponen casos de discriminación contra poblaciones históricamente vulneradas”, dijo.
Lucía Camacho, consultora del Centro de Estudios en Libertad de Expresión (CELE), que depende de la Universidad de Palermo, destacó que la norma publicada es discrecional, en cuanto a qué considera “público” y “abierto” en internet, y “enlista crímenes que no entran en la categoría de cibercrímenes”.
Al englobar todo en la categoría de cibercrimen, “la persecución de los cibercrímenes facilita al Estado el despliegue de ciertos poderes de investigación así como de cooperación con otros países y terceros que, de tratarse de otros crímenes convencionales, no tendría a su disposición al menos de manera tan expedita”, analizó Camacho.
Busaniche advirtió también sobre la privacidad de los datos: “Más allá de que las opiniones volcadas en una red social sean públicas, las personas tienen un derecho a la privacidad, la protección de sus datos personales y la preservación de su autodeterminación informativa. En resumen, que algo sea público no habilita la recolección, el procesamiento y el uso de estos datos para el entrenamiento de sistemas de inteligencia artificial ni mucho menos el perfilamiento, especialmente cuando se trata de datos personales protegidos en Argentina con el más alto nivel constitucional”.
Fecha de publicación original: 03/08/2024
Comentarios
Valoramos mucho la opinión de nuestra comunidad de lectores y siempre estamos a favor del debate y del intercambio. Por eso es importante para nosotros generar un espacio de respeto y cuidado, por lo que por favor tené en cuenta que no publicaremos comentarios con insultos, agresiones o mensajes de odio, desinformaciones que pudieran resultar peligrosas para otros, información personal, o promoción o venta de productos.
Muchas gracias