Covid-19 y tecnología: Brasil utiliza inteligencia artificial y aplicación de seguimiento para tratar de combatir la pandemia
Brasil es uno de los principales epicentros del nuevo coronavirus en el mundo. El país registró más de 4,7 millones de casos de covid-19 y casi 143 mil muertes causadas por el virus SARS-CoV-2. En cuanto a las muertes, solo está por detrás de los Estados Unidos. Posiblemente los casos brasileños están infra reportados, ya que Brasil es uno de los países que menos pruebas realizó para detectar la enfermedad. Según datos del Ministerio de Salud del 17 de septiembre, se realizaron alrededor de 6 millones de pruebas de RT-PCR, el 58% en la red pública y el resto en los cinco mayores laboratorios privados. Las imágenes de tomografía han ayudado a los médicos a diagnosticar la enfermedad, incluso con el uso de inteligencia artificial, aunque hay pendiente una discusión sobre sesgos, privacidad, transparencia y efectividad de fondo.
El Hospital das Clínicas (HC), de la Facultad de Medicina de la Universidad de São Paulo, fue el primero en Brasil en adoptar la inteligencia artificial para el diagnóstico de COVID-19 a través de imágenes de tomografía. Lanzada en abril, la plataforma RadVid-19 se desarrolló en base a algoritmos de Huawei (China) y Siemens (Alemania), que permitió el uso de códigos a HC. La programación utilizada es machine learning. Así, los algoritmos aprenden de los datos ingresados en el sistema y cambian a medida que se utilizan.
“El algoritmo chino fue entrenado con una base de datos de alrededor de cuatro mil imágenes. El europeo comenzó con alrededor de dos mil imágenes. Luego comenzamos a agregar imágenes [de pacientes brasileños] para afinar la precisión del algoritmo”, explica a este medio el ingeniero Marco Bego, responsable de Innovación y director ejecutivo del Hospital das Clínicas. Las tomografías computarizadas realizadas en pacientes con COVID-19 generalmente muestran cambios pulmonares similares al “vidrio esmerilado”. “Recibimos las imágenes de tomografía, los algoritmos evalúan los píxeles de estas imágenes y hacemos una comparación para ver si el diseño de la imagen se corresponde con el área que quedaría con la característica de COVID”.
El HC puso el recurso a disposición de otros hospitales de Brasil. En total, hay 50 hospitales registrados, aproximadamente el 60% de los cuales pertenecen al sector privado. Los radiólogos han enviado más de 18 mil pruebas de imagen, con un promedio de 70% de resultados positivos para el virus. “Los médicos de todo el país remiten los casos a nuestra plataforma y al cabo de unos minutos tienen una respuesta diciendo si el caso es COVID o no y la gravedad del caso”, dice el médico Giovanni Guido Cerri, presidente de la Junta Directiva de Instituto de Radiología y presidente de la Comisión de Innovación (InovaHC) del Hospital das Clínicas. “¿Y cuál es la importancia de esto? Para COVID, especialmente para el paciente críticamente enfermo que necesita cuidados intensivos, un diagnóstico rápido de la extensión de la enfermedad pulmonar es fundamental para iniciar un tratamiento eficaz, o incluso la hospitalización en cuidados intensivos”, dice Cerri .
Para Cerri, la tomografía computarizada con la ayuda de inteligencia artificial ha logrado acelerar el diagnóstico de casos graves. En consecuencia, ayudó a salvar vidas. “Las imágenes de la tomografía salen casi de inmediato. -celebra el experto- Mientras que la prueba de COVID tarda de dos a tres días en conocerse. Al principio, muchas pruebas de PCR tardaban diez días en estar listas. En diez días, los casos graves seguramente habrían evolucionado por una condición grave irreversible”.
Desde junio último, el radiólogo Vinicius Martinelli Manfrin ha estado utilizando la herramienta RadVid-19. Vive en Nova Mutum, en el interior de Mato Grosso, en el Medio Oeste de Brasil. La ciudad tiene cerca de 45 mil habitantes, 1.623 casos confirmados de COVID-19 y 28 muertes registradas, según datos de la Secretaría de Salud del Estado. El médico dice que la inteligencia artificial ha aportado más agilidad a su trabajo. “Ha acelerado enormemente el diagnóstico y la conducta del paciente. La tomografía puede determinar si el paciente permanecerá en su casa, si será admitido en la sala o si irá directamente a la UCI. Todas estas opciones están de acuerdo con los hallazgos de la tomografía”, explica Manfrin.
El médico dice que ya utilizó la herramienta para diagnosticar a unos 600 pacientes. Según él, puede haber casos de “falsos positivos” con RadVid-19. “Para estos casos, el radiólogo pone esta observación en su informe -para que el médico que toma la conducta clínica lo sepa. Entonces, en ese momento en que la inteligencia artificial teóricamente comete errores, está el radiólogo que hará su parte y lo corregirá”, dice Manfrin. “Ha habido casos en los que ella sugirió que era COVID, pero era una secuela crónica. Y en mi informe, no cometí un error. No estaba de acuerdo con ella”.
Sesgo y transparencia
“Los algoritmos de aprendizaje automático aprenden de los datos con los que se alimentan. Por lo tanto, pueden estar sesgados. Si hay diagnósticos inexactos en la base, confundidos con otros virus, por ejemplo, puede haber probabilidades incorrectas en uso”, advierte el médico y abogado sanitario Daniel A. Dourado, investigador del Centro de Investigaciones en Derecho Sanitario de la Universidad de San Paulo. Dourado también explica que si los algoritmos se desarrollan a partir de una base de datos con características homogéneas, pueden generar resultados erróneos cuando se aplican en grupos heterogéneos. Por ejemplo, si la población china tiene manifestaciones clínicas distintas a la brasileña, es posible que la inteligencia artificial no sea tan precisa para Brasil.
HC, en tanto, señala que está “entrenando” la inteligencia artificial con imágenes de pacientes brasileños con COVID. “En Brasil, como en otros países de América Latina, el grupo de edad afectado es más bajo que en Europa, por ejemplo. Entonces, tenemos la inclusión de pacientes más jóvenes. El mestizaje racial de Brasil también es muy diferente de Europa o incluso el de China. Por eso, es importante tener un algoritmo nacional que esté más dentro de nuestra realidad. Y ahora estamos evaluando la precisión de los algoritmos nacionales para diagnosticar COVID. Tendremos estos resultados en octubre”, dice Cerri.
Otra peculiaridad de los algoritmos brasileños es que también están siendo entrenados con imágenes de rayos X de tórax. Las pruebas comenzaron hace aproximadamente un mes. “Porque en Brasil, yo diría que en América Latina en general, en muchos lugares no hay disponibilidad de tomografía computarizada. Sobre todo en los lugares más remotos”, explica Cerri.
El sesgo de los sistemas de inteligencia artificial es una de las principales preocupaciones de los expertos en la materia. Incluso hay casos en los que el uso de la IA puede generar resultados prejuiciosos. Google, por ejemplo, usa algoritmos para clasificar imágenes. En 2015, la tecnología identificó a los negros como gorilas. Dos años después, un informe de Wired probó 40 mil imágenes de animales en Google Photos. La herramienta identificó varias especies, pero el servicio no arrojó resultados para el término de búsqueda “gorila”. Para Wired, un portavoz de Google confirmó que la palabra “gorila” había sido censurada en búsquedas y etiquetas de imágenes después del incidente de 2015.
Para el científico social y abogado Caio Machado, con maestría de la Universidad de Oxford, hay una falta de transparencia sobre el funcionamiento de algoritmos de inteligencia artificial. “Estas herramientas son muy opacas. No sabemos cómo funcionan en la mayoría de los casos. A menudo son soluciones patentadas protegidas por propiedad intelectual. Es un secreto comercial”. Machado también explica que el correcto funcionamiento de la IA no depende sólo de la base de datos utilizada por el sistema y del código de programación del machine learning. Es importante saber cómo los humanos utilizan la información generada por la IA. “Entonces, estamos hablando de un proceso que es muy complejo y ofrece mucho margen de error”, indica Machado.
Dourado también critica la falta de transparencia de los algoritmos. Para él, en el caso del uso de la inteligencia artificial en el área de la salud, los pacientes deben ser informados sobre los criterios que utiliza la IA. “Tenemos un debate en Europa sobre el derecho a la explicación, pero en Brasil este debate aún es muy incipiente. No lo hemos hecho todavía. Es decir, ¿hasta qué punto el derecho del paciente, esa persona que es el objetivo del algoritmo? Si el algoritmo me da un diagnóstico, tendría derecho a saber qué elementos usó para eso”.
En el caso de RadVid-19, Cerri explica que los pacientes desconocen el uso de algoritmos. “No se informa al paciente sobre el uso de la inteligencia artificial en su diagnóstico, porque en realidad el objetivo de la plataforma es facilitar el diagnóstico. Y este diagnóstico se realiza en base a la tomografía, o posiblemente a la radiografía de tórax”.
Para Dourado, puede haber un dilema ético en la forma en que la inteligencia artificial influirá en el tratamiento en el contexto de la pandemia, en un escenario en el que faltan suministros y equipos. En un ejemplo hipotético, advierte que la IA podría determinar los pacientes que se beneficiarían de los respiradores. “El algoritmo pudo dirigir el orden de quién tendrá prioridad a los respiradores en caso de escasez. Esa sería una situación límite. Incluso la persona que se pasa por alto tendría que acceder al algoritmo”, reconoce.
Dourado también explica que faltan leyes para enfrentar los problemas causados por el uso de inteligencia artificial. “Y luego entramos en la parte de mi principal foco de investigación, que es principalmente la regulación de algoritmos. Tenemos estos algoritmos y no tienen una regulación específica. En Brasil, no hay. Están registrados como software en la Agencia Nacional de Vigilância Sanitária”.
Privacidad
Las tomografías y radiografías que utiliza la herramienta RadVid-19 están en la nube de Amazon. Según Bego las imágenes no contienen datos que puedan identificar a los pacientes en caso de una eventual filtración de información.
La abogada Márcia Araújo Sabino de Freitas, doctora en Salud Pública de la Universidad de San Paulo y postgrado en bioética de la Universidad de Georgetown, dice que la privacidad y el uso de los datos personales de los pacientes es una preocupación que ha sido parte de la rutina de los hospitales por mucho tiempo.
“Hasta hace algún tiempo la preocupación era proteger y limitar el acceso a los registros físicos de los pacientes. Ahora, con los registros electrónicos, la preocupación ha migrado a una restricción remota, virtual. Las precauciones necesarias con estos datos, sin embargo, ya están tomadas por parte de hospitales e instituciones de salud y ya existen responsabilidades definidas para quienes tienen la custodia de estos datos, que a su vez son y siguen siendo propiedad de los pacientes. De hecho, es precisamente porque los datos pertenecen a pacientes que solo pueden ser utilizados en el contexto y para la función autorizada por ellos”, indica la experta.
Durante la pandemia, varios países utilizaron aplicaciones de teléfonos móviles para intentar rastrear y contener el progreso del nuevo coronavirus. En el caso de China, el Gobierno tiene acceso a datos personales de los usuarios. Una preocupación es cómo se puede utilizar esta información para la vigilancia y el control social.
En Brasil, desde el comienzo de la pandemia, las organizaciones de la sociedad civil han estado monitoreando cómo la tecnología puede impactar a los ciudadanos. El abogado Rafael Zanatta, director ejecutivo de la Associação Data Privacy Brasil de Pesquisa, señala que las primeras iniciativas diseñadas para rastrear casos de COVID fueron preocupantes en relación a la privacidad. “Estos eran sistemas que estaban siendo diseñados para ser centralizados. Es decir, los datos recolectados informarían el diagnóstico de COVID, información de geolocalización, metadatos del dispositivo, tipo de dispositivo, etc. Y estos registros se almacenarían en servidores unificados del Ministerio de Salud”.
Sin embargo, el gobierno brasileño acabó adoptando un modelo de aplicación basado en la “API Exposure Notification”, desarrollado por Google y Apple. El sistema fue creado para no exponer los nombres y ubicaciones de los usuarios. Países como Uruguay, Alemania, Italia y Suiza también utilizan la tecnología.
En Brasil, la aplicación se denominó Coronavirus-SUS. Quien usa la aplicación debe informar el diagnóstico positivo de la enfermedad, de forma voluntaria y anónima. El sitio web oficial indica que la transmisión de información de contagio se realiza de forma encriptada, utilizando bluetooth de bajo consumo. Así, Coronavirus-SUS “reconoce contactos cercanos a una distancia de 1,5 a 2 metros y durante un mínimo de cinco minutos entre smartphones que tengan instalada la aplicación”. De esa manera, se notificaría al usuario si tuviera contacto con una persona infectada.
Para Zanatta, el uso de esta tecnología fue una sabia elección. “De las diversas tecnologías de seguimiento de contactos automatizado, esta en particular es la que tiene el menor riesgo para las libertades civiles, porque tiene una serie de opciones correctas de arquitectura de sistema, en un modelo de seguimiento descentralizado”. Sin embargo, el abogado hace una reserva: “el gobierno de Brasil no presentó la documentación de la aplicación de manera transparente y abierta y no la puso en debate público”.
Los investigadores europeos Serge Vaudenay y Martin Vuagnoux, expertos en seguridad y cifrado de la Ecole Polytechnique Fédérale en Lausana, Suiza, analizaron la aplicación SwissCovid, que también se basa en la “API Exposure Notification”. Identificaron vulnerabilidades en el sistema que podrían exponer la privacidad y seguridad de los usuarios. En este video, muestran cómo descubrieron las fallas. “Estos son sólo problemas de seguridad y privacidad, pero también está la cuestión de si esta tecnología es útil. Se debate la cuestión de si identifica de manera confiable a los contactos cercanos a través de bluetooth. No hay evidencia de que esté funcionando y algunos investigadores incluso sospecharon que no funciona en la vida real”, dice Vaudenay.
Zanatta también tiene dudas sobre si el Coronavirus-SUS es efectivo. “Comenzamos a usarlo. Uno de nuestros investigadores instaló la aplicación del gobierno. Incluso dijo: ‘Viajé, fui a la estación de autobuses, pero no recibí ninguna notificación’. No sabemos si la aplicación está funcionando. No tengo informes”.
Ante la consulta, pregunté al Ministerio de Salud de Brasil sobre cuántas personas usan el Coronavirus-SUS, cuántas de ellas informaron un diagnóstico positivo de COVID y cuántas alertas se activaron para las personas que tuvieron contacto con personas infectadas. En una nota, la oficina de Prensa de la agencia dice que 10 millones de personas han descargado la aplicación, pero que “para garantizar la seguridad y privacidad de los usuarios, la plataforma no registra datos que puedan identificarlos, lo que hace que sea imposible medir y revelar la información solicitada”.
Sin embargo, esto contradice el texto publicado en el sitio web oficial de la aplicación: “En la práctica, el ciudadano con un resultado positivo para COVID-19 pondrá a disposición la aplicación Coronavirus-SUS, de forma voluntaria y anónima, utilizando un token (números de código) emitido por el Ministerio de Salud – la validación de su examen (PCR o serológico) positivo para la enfermedad. Para evitar información falsa, antes de generar el token, el Ministerio de Salud realizará el cruce entre el examen informado por la persona y los registros integrados la plataforma de vigilancia (e-SUS Notifica) y la Red Nacional de Datos en Salud (RNDS), ambas integradas y que recopilan información de pacientes con covid-19 en Brasil”.
¿Cómo es posible que el Ministerio de Salud emita y valide los tokens y no se contabilice esta información? La agencia no respondió la pregunta. Además, en el último minuto la oficina de Prensa canceló una entrevista que haría por teléfono con un portavoz del Ministerio. Luego de cuatro días de programar la entrevista, se canceló unas horas antes de la hora programada. La transparencia no ha sido una de las fortalezas del gobierno de Jair Bolsonaro.
Respecto a las vulnerabilidades de la “API Exposure Notification” descubierta por Vaudenay y Vuagnoux, la oficina de Prensa dijo en una nota que Coronavirus-SUS es segura. “La aplicación se sometió a una serie exhaustiva de pruebas por parte de los fabricantes antes de estar disponible en las tiendas para su descarga. Todos los datos se cifran y guardan localmente en el teléfono inteligente. Los datos solo están disponibles en la herramienta durante un período de 14 días”. Por correo electrónico, me comuniqué con Google y Apple, pero las empresas no respondieron las preguntas formuladas en el reportaje.
Regulación
Brindamos mucha información sobre nuestros hábitos a empresas como Google y Apple, o Huawei y Siemens. Con una base de datos gigantesca y el uso de IA, es posible que las big techs sepan más sobre nuestra salud que nosotros mismos. Alphabet, la empresa matriz de Google, anunció que ingresará en el mercado de los seguros de salud.
Freitas habla sobre los principales desafíos que deben enfrentar gobiernos, empresas y sociedad civil por el uso de algoritmos en el área de la salud. “Junto a toda esta tecnología, las discusiones sobre la protección y privacidad de los datos personales de salud cambian, especialmente ante la posibilidad de utilizar estos datos, que la persona proporciona para resolver problemas de salud personal, para fines distintos a los autorizados o conocidos por los pacientes, como, por ejemplo, el posible uso de estos datos por parte de las empresas con fines publicitarios o de los gobiernos para la vigilancia y el ejercicio del poder y control sobre la población”.
Hace dos años Brasil aprobó la Ley General de Protección de Datos (LGPD). La legislación brasileña, que tiene muchas similitudes con el Reglamento General de Protección de Datos (GPDR) de la Unión Europea, debía entrar en vigor en 2019, pero se pospuso para julio de este año. Sin embargo, en el último mes de junio, el presidente Bolsonaro intentó posponer la ley hasta 2021.
“Había un lobby muy grande del poder económico diciendo que la LGPD era cara y que necesitaría más tiempo. El gobierno compró esta narrativa y quería posponer la LGPD ”, dice Zanatta. Además, el director de Data Privacy también recuerda que el gobierno brasileño estuvo involucrado este año en una serie de escándalos que involucran datos de ciudadanos brasileños. El Ministerio de Justicia elaboró un dossier sobre casi 600 personas críticas con el gobierno. Y la Agencia de Inteligencia de Brasil (Abin) quería tener acceso a datos sobre más de 76 millones de ciudadanos que tienen una licencia nacional de conducir. Todo esto va en contra de lo que predice la LGPD – y legislación en general. La Corte Suprema de Brasil determinó que el Ministerio de Justicia suspenda la producción de expedientes. Y ahora analiza el caso de Abin, en una acción que apunta al incumplimiento del precepto fundamental previsto en la Constitución brasileña.
En desacuerdo con Bolsonaro, el Senado decidió que la LGPD debería entrar en vigor este año. La nueva legislación entró en vigencia el 18 de septiembre. Ahora cualquiera en Brasil puede exigir que empresas y organismos públicos informen qué datos se recopilaron, cómo se almacenan y con qué finalidad. Además, los ciudadanos pueden exigir la eliminación de algunos datos. Hay sanciones administrativas y multas para quienes infrinjan las reglas. Con esto, las empresas que no se adaptan pueden incluso hacer inviable el negocio. Queda por ver si esta ley se impondrá o será letra muerta.
Esta nota es una de las ocho investigaciones latinoamericanas sobre las implicancias éticas del uso de inteligencia artificial y algoritmos en políticas públicas y empresas privadas a nivel regional. Todas estas piezas son financiadas por Chequeado gracias al apoyo de Knight Foundation.
Fecha de publicación original: 30/09/2020
Comentarios
Valoramos mucho la opinión de nuestra comunidad de lectores y siempre estamos a favor del debate y del intercambio. Por eso es importante para nosotros generar un espacio de respeto y cuidado, por lo que por favor tené en cuenta que no publicaremos comentarios con insultos, agresiones o mensajes de odio, desinformaciones que pudieran resultar peligrosas para otros, información personal, o promoción o venta de productos.
Muchas gracias