Qué dice la Ley de Inteligencia Artificial europea que regulará aplicaciones como Chat-GPT
- El Parlamento europeo aprobó la primera ley general sobre IA. Se espera que se publique oficialmente en mayo, aunque hay varios meses para su implementación.
- Crea obligaciones de acuerdo con los riesgos que implican los distintos usos de la IA, que van desde la prohibición hasta requisitos de transparencia y evaluación de riesgo. Las multas pueden llegar a los € 35 millones o el 7% de la facturación global de la empresa.
- En la Argentina hay proyectos de ley presentados por legisladores de la UCR, el PRO y el Frente de Todos.
El Parlamento europeo aprobó el miércoles la primera Ley de Inteligencia Artificial con 523 votos a favor, 46 en contra y 49 abstenciones. La norma general sobre Inteligencia Artificial (IA) -que regulará aplicaciones como Chat-GPT– llega tras declaraciones a nivel internacional, como los principios de la Organización para la Cooperación y el Desarrollo Económico (OCDE) de 2019, o las recomendaciones sobre la ética de la IA de la Unesco, adoptadas por los 193 Estados miembro en noviembre de 2021.
Principales puntos y debates de la Ley de Inteligencia Artificial europea
Definición amplia. La ley alcanza a desarrolladores, proveedores, distribuidores y usuarios de sistemas de IA, entendidos como los basados en una máquina, con distintos niveles de autonomía, con capacidad de adaptación, y que ante interacciones infieren la manera de generar respuestas, como predicciones, contenidos, recomendaciones o decisiones.
Al resaltar el aprendizaje automático, se buscó evitar alcanzar a todos los proveedores de software. A la vez, la definición intenta ser abarcativa por las diferentes aplicaciones de la IA. Vale recordar que durante la discusión de la ley tuvo lugar el lanzamiento de Chat-GPT y la explosión de la IA generativa que permite crear textos, imágenes o videos.
Enfoque basado en riesgos. El aspecto distintivo es establecer obligaciones en función de los riesgos potenciales de los distintos usos. “A mayor riesgo, normas más estrictas”, es el lema de la ley.
Entre los usos prohibidos están la actuación policial predictiva basada solo en el perfil o las características de una persona; la recolección de imágenes de internet o grabaciones de cámaras de seguridad para crear bases de reconocimiento facial; la categorización biométrica que permita inferir datos sensibles -como opiniones políticas, orientación sexual o religiosa-; y el reconocimiento de emociones en el trabajo y en las escuelas.
La identificación biométrica remota en espacios públicos por fuerzas de seguridad (por ejemplo, una cámara policial que registre quiénes pasan por una calle) está prohibida a priori, aunque se acordaron excepciones concretas.
Los sistemas de alto riesgo, con potencial para causar un perjuicio a la salud, la seguridad o los derechos fundamentales, en casos como la admisión educativa, la contratación laboral o los procesos electorales, tienen que tener sistemas de gestión de riesgo con evaluaciones periódicas, implementar medidas de gobernanza (como la detección y eliminación de sesgos) y de seguridad de los datos, tener control humano y mantener una vigilancia poscomercialización.
Un escalón más abajo en riesgo están los sistemas que interactúan directamente con las personas, como chatbots o generadores de audio o imágenes, con requisitos básicamente de transparencia. Debe saberse si se está hablando con un asistente virtual basado en IA, o si un elemento fue generado o manipulado artificialmente, por ejemplo, en los deepfakes. También debe precisarse el uso de IA en textos, como notas de prensa, salvo que exista revisión humana o control editorial.
Para la IA de uso general, los requerimientos se vinculan con aportar la información base de los modelos, para entender capacidades y limitaciones, y proteger los derechos de autor. Responde así a los debates por el entrenamiento de herramientas a partir de obras protegidas. Cuando se consideren con “riesgo sistémico”, las obligaciones son mayores.
La ONG Reporteros Sin Fronteras consideró la sanción de la ley como un avance significativo al incluir el etiquetado de contenidos generados por IA y la transparencia del uso de contenidos protegidos, pero sostuvo que no resuelve los problemas informativos. “Los sistemas de IA que producen información deberían estar sujetos a la misma protección que los sistemas utilizados en ámbitos tan cruciales como la educación, la justicia o las elecciones, al ser clasificados como de ‘alto riesgo’”, criticó la entidad.
Fomento a PyMEs europeas. Tendrán prioridad en espacios controlados de pruebas y ensayos para el desarrollo de la IA, entre otros beneficios. El impacto en startups locales fue un punto sensible, sobre todo para Francia y Alemania que rechazaban afectar a sus empresas nacionales. “Podemos regular mucho más rápido y fuerte que nuestros principales competidores. Pero (…) ya no produciremos ni inventaremos. Esto nunca es una buena idea”, había declarado el presidente francés Emmanuel Macron.
Por su parte, la Cámara de Comercio de los Estados Unidos consideró que la ley no logra un equilibrio razonable entre regulación de riesgos y promoción de la innovación, y agregó que “puede abrir la puerta a la discriminación de las empresas estadounidenses”, de donde provienen firmas del sector, como OpenAI, Microsoft, Google y Meta.
Multas considerables. Las multas por presentar información inexacta o engañosa a las autoridades serán de hasta € 7,5 millones o el 1% de la facturación global de las empresas, mientras que por no respetar prácticas prohibidas pueden llegar a los € 35 millones o el 7% del volumen mundial de negocios, lo que sea mayor. Para las PyMEs, en cambio, sería el monto menor de ambos.
Próximos pasos de la Ley de Inteligencia Artificial
La ley ahora tiene que ser respaldada por el Consejo de la Unión Europea, lo que se descuenta que pase en abril, y se espera que el texto definitivo se publique oficialmente en mayo. A partir de ahí, rigen los plazos para la implementación.
Hay un plazo de 6 meses para eliminar los sistemas prohibidos. Las disposiciones sobre IA de uso general y las sanciones se aplicarán tras un año de la entrada en vigencia, mientras que las relativas a los sistemas de IA de alto riesgo tienen un plazo de 24 meses (o 36 si están integrados en productos regulados).
La situación de la IA en la Argentina y América Latina
En el país existen varias iniciativas de ley sobre IA, aunque ninguna ha avanzado en el Congreso nacional. Entre ellas, una presentada por los diputados de la Unión Cívica Radical (UCR) Facundo Manes y Jimena Latorre sobre “el funcionamiento ético de los sistemas”; una de la ex diputada del PRO y hoy secretaria de Bienestar Integral porteña, Victoria Morales Gorleri, sobre el desarrollo y uso de IA; y otra de la ex diputada del Frente de Todos Anahí Costa, para promover las nuevas tecnologías resguardando y garantizando su uso ético y responsable.
El panorama es similar en la región, con proyectos presentados en Brasil, Chile, Colombia, Costa Rica, y Perú, entre otros. Recientemente, el tema cobró mayor relevancia en Brasil ya que el presidente Lula Da Silva pidió al Consejo Nacional de Ciencia y Tecnología (CCT) elaborar un Plan de Inteligencia Artificial. De hecho, dijo querer presentarlo al mundo durante la 79ª Sesión de la Asamblea General de las Naciones Unidas en septiembre.
*El autor es jefe de Investigación de la consultora SmC+, que trabaja con empresas del sector digital, y miembro del Grupo de Investigación del Centro de Política de IA y Digital (CAIDP).
Fecha de publicación original: 15/03/2024
Comentarios
Valoramos mucho la opinión de nuestra comunidad de lectores y siempre estamos a favor del debate y del intercambio. Por eso es importante para nosotros generar un espacio de respeto y cuidado, por lo que por favor tené en cuenta que no publicaremos comentarios con insultos, agresiones o mensajes de odio, desinformaciones que pudieran resultar peligrosas para otros, información personal, o promoción o venta de productos.
Muchas gracias