A finales de enero, la politóloga estadounidense Allaine Cerwonka, directora internacional y de alianzas del The Alan Turing Institute, el instituto nacional de inteligencia artificial (IA) y ciencia de datos del Reino Unido, vino a Brasil para conversar sobre posibles colaboraciones. El instituto Turing, una organización sin fines de lucro, recibe financiación del gobierno británico e instituciones privadas para liderar y desarrollar proyectos en colaboración con universidades, gobiernos y empresas en áreas tales como seguridad, medio ambiente, economía y cambios climáticos. La institución es una de las coordinadoras del AI Standards Hub, que estudia y promueve el desarrollo de normas y reglas para el uso de la inteligencia artificial. También realiza investigaciones sobre la intersección entre la tecnología, las ciencias sociales y las políticas públicas, y colabora con las autoridades judiciales en herramientas como el Online Harms Observatory, un sistema diseñado para vigilar y combatir las amenazas en línea, incluso en las redes sociales, en el Reino Unido.
Doctora en ciencia política graduada en la Facultad de Ciencias Sociales de la Universidad de California en Irvine (EE. UU.), Cerwonka fue anteriormente directora de la Facultad de Ciencias Sociales de la Universidad de East London y del Programa de Estudios Sociales de la Ciencia en la Central European University. La siguiente entrevista fue concedida a Pesquisa FAPESP vía correo electrónico y videoconferencia.
¿Cuál fue el motivo de su visita a Brasil?
La cooperación internacional y el intercambio de conocimiento son fundamentales para el Reino Unido y nuestro instituto. Brasil es particularmente interesante para nosotros, porque su tamaño y su población lo convierten en un actor esencial en las relaciones con América Latina. El país participa en los debates sobre el uso potencial de la inteligencia artificial para hacer frente a los acuciantes retos de alcance global y esto ha quedado demostrado, por ejemplo, en las discusiones que tuvieron lugar en el marco de la última reunión del G20, celebrada en Río de Janeiro en noviembre de 2024. Y en noviembre de este año presidirá la COP 30 que se realizará en Belém (Pará). Estas reuniones reflejan el liderazgo de Brasil en temas tales como las energías renovables, el impacto de los cambios climáticos en el medio ambiente, la seguridad de la población humana y la salud. En el instituto, desarrollamos inteligencia artificial y nuevas tecnologías para ayudar a hacer frente a muchos de estos desafíos compartidos y vemos a Brasil como un socio potencial en esta ambición por resolverlos. El gobierno brasileño, el sector privado y la sociedad civil toman parte en los debates que atañen a la regulación y el desarrollo responsable de la IA, temas de interés común para ambos países.
¿Con cuáles instituciones ha mantenido conversaciones?
Hemos visitado instituciones y organismos gubernamentales en São Paulo, Brasilia y Río de Janeiro. Nos ha impresionado el trabajo que viene desarrollando el MCTI [Ministerio de Ciencia, Tecnología e Innovación], como el plan brasileño de inteligencia artificial, que aborda cuestiones clave como la privacidad de los datos, el desarrollo ético y responsable y la regulación de la IA para proteger a los ciudadanos sin sofocar la innovación. Conversamos sobre los esfuerzos de ambos países con miras a mejorar la prestación de los servicios públicos a través de la gobernanza digital. Hemos mantenido discusiones fructíferas con el LNCC [Laboratorio Nacional de Computación Científica] sobre áreas de colaboración e intercambio de investigadores. Invitamos al gobierno brasileño a enviar delegados al Global Summit 2025 – AI Standards Hub, un encuentro que tendrá lugar en Londres en marzo de este año. Y también mantuvimos conversaciones productivas con líderes e investigadores vinculados a la FAPESP.
¿De qué trataron estas conversaciones?
En el futuro, nuestro instituto explorará junto con la FAPESP la manera de conectar los nuevos Centros de Investigación Aplicada en Inteligencia Artificial financiados por la Fundación con los centros de excelencia del Reino Unido en el marco de la red de universidades que investigan con el instituto Turing. También hay margen para compartir las experiencias de nuestro instituto con un hub de innovación que la FAPESP tiene previsto crear junto a la gobernación de São Paulo.
¿Cuáles han sido las capacidades de la ciencia brasileña que le llamaron más la atención?
Me ha fascinado el trabajo realizado en sostenibilidad y medio ambiente. En el instituto trabajamos, por ejemplo, en la ciberseguridad de las turbinas eólicas. El año pasado hubo un ciberataque en Alemania que inutilizó miles de turbinas a la vez. No podemos depender de estas energías renovables sin tener en cuenta el tema de la seguridad. Brasil es un colaborador de fuste en la materia, dada su pericia en el área de las energías renovables. Continuaremos manteniendo conversaciones con el puerto de Açu, en Río de Janeiro, sobre buques autónomos y turbinas eólicas offshore. En el campo de la IA para el medio ambiente, nos ha entusiasmado el trabajo del Inpo [Instituto Nacional de Investigaciones Oceánicas, un instituto de investigación privado con sede en Río de Janeiro], con la creación de un gemelo digital [un modelo virtual de un sistema u objeto físico que permite realizar simulaciones] del Atlántico Sur.
Los riesgos potenciales de la IA deben gestionarse a lo largo de todo el proceso de investigación, en un marco de reflexión permanente
El instituto Turing dirigió un programa para implementar la IA y la ciencia de datos en áreas prioritarias del Reino Unido. ¿Cuáles han sido los principales resultados?
El programa, financiado por el UK Research & Innovation [Ukri, la principal agencia de financiación científica del Reino Unido], fue responsable de alrededor de un centenar de proyectos centrados en áreas de relevancia para la sociedad y la economía. Hemos desarrollado importantes trabajos sobre gemelos digitales, por ejemplo, con Rolls-Royce, para incrementar la eficiencia de la industria aeroespacial. En el sector de la salud, un ejemplo es el proyecto Sparra [scottish patients at risk of re-admission], que utiliza el modelado por IA para predecir la necesidad de que los pacientes cardíacos vuelvan al hospital, con base en datos del sistema sanitario escocés. Para cada área en la que trabajamos con el gobierno, desarrollamos white papers, documentos que se utilizan para informar a los parlamentarios y a los sectores de los servicios públicos. Contamos con unos 75 investigadores internos, con quienes trabajamos principalmente en temas como seguridad y defensa, en los que algunos proyectos son confidenciales. Para cuestiones menos sensibles, hemos conseguido involucrar a los mejores investigadores de nuestras universidades.
¿Cuáles son los retos principales que actualmente enfrenta el desarrollo de aplicaciones de IA éticas y responsables?
Esta es una cuestión muy importante. Por desgracia, no existe un conjunto fijo de normas para el desarrollo de una IA ética y responsable, que los profesionales en la materia simplemente puedan memorizar para evitar causar daños con sus investigaciones. En el instituto Turing estamos persuadidos de que los riesgos potenciales que implican la investigación y los resultados de la IA deben gestionarse a lo largo de todo el proceso de investigación, en un marco de reflexión permanente. Hemos elaborado un manual intitulado The Turing way, que apunta a hacer frente a estos desafíos y apoyar la aplicación de los objetivos y prácticas de investigación reproducible al campo relativamente joven del aprendizaje automático. También hemos desarrollado un protocolo y un curso para una IA ética y responsable, denominado The Turing Commons. Ese curso fue creado para entrenar a la nueva generación de investigadores científicos en la identificación y la construcción de andamiajes éticos para las distintas aplicaciones de IA.
¿Cómo balancear la regulación de la IA para asegurar la protección de los derechos sin poner en riesgo la innovación?
El Reino Unido ha adoptado un enfoque “proinnovación” en la regulación de la IA, definido y argumentado en un white paper del gobierno, que busca un término medio entre la Ley de IA de la Unión Europea y el abordaje adoptado en la actualidad por Estados Unidos. Al reconocer que las tecnologías de IA están evolucionando a un ritmo acelerado, el gobierno ha encargado a sus organismos reguladores el desarrollo de estándares y normativas dentro de sus sectores respectivos. El instituto Turing ha participado en este proceso en colaboración con el National Physical Laboratory y el British Standards Institution, contribuyendo con el AI Standards Hub, un centro orientado a facilitar la representación de las diferentes partes del ecosistema en el desarrollo de estándares para la IA. El Hub también creó una plataforma online para identificar todas estas regulaciones y normas pertinentes para una tecnología determinada. Esta labor es clave para aportarle claridad al sector, permitiendo que pueda innovar con seguridad. El gobierno británico está muy interesado en implementar la IA y otras tecnologías emergentes para aumentar la eficiencia y el estándar de calidad de los servicios públicos. Hasta ahora, el Reino Unido ha digitalizado gran parte de sus servicios, tanto a nivel nacional como local. Naturalmente, el estándar de responsabilidad en el uso de la IA por parte del gobierno debe ser más alto que en otros sectores.
