Imprimir Republicar

Entrevista

Allaine Cerwonka: Conexões da inteligência artificial

Diretora de instituto nacional de ciência de dados do Reino Unido discute colaborações de pesquisa com o Brasil

A cientista política durante visita a São Paulo. Ela também foi a Brasília e ao Rio de Janeiro

Léo Ramos Chaves / Revista Pesquisa FAPESP

No final de janeiro, a cientista política norte-americana Allaine Cerwonka, diretora internacional e de parcerias do The Alan Turing Institute, instituto nacional de inteligência artificial (IA) e ciência de dados do Reino Unido, veio ao Brasil conversar sobre possíveis colaborações. Organização sem fins lucrativos, o Turing recebe financiamento do governo britânico e de instituições privadas para liderar e desenvolver projetos em parceria com universidades, governo e empresas em áreas como segurança, meio ambiente, economia e mudanças climáticas. A instituição é uma das coordenadoras do AI Standards Hub, que estuda e promove o desenvolvimento de normas e regras para a inteligência artificial. Também trabalha em pesquisas na interseção entre tecnologia, ciências sociais e políticas públicas e atua com autoridades da área de Justiça em ferramentas como o Online Harms Observatory, sistema criado para monitorar e combater ameaças on-line, inclusive em redes sociais, no Reino Unido.

Doutora em ciência política pela Escola de Ciências Sociais da Universidade da Califórnia em Irvine, nos Estados Unidos, Cerwonka já foi diretora da Escola de Ciências Sociais da Universidade de East London e do Programa de Estudos Sociais da Ciência na Central European University. Ela concedeu a entrevista a seguir por e-mail e videoconferência.

O que motivou a visita ao Brasil?
A colaboração internacional e a troca de conhecimento são fundamentais para o Reino Unido e o nosso instituto. O Brasil é particularmente interessante para nós, porque seu tamanho e população fazem dele um ator essencial para engajamentos na América Latina. O país participa de debates sobre o potencial uso da inteligência artificial para enfrentar desafios globais urgentes e demonstrou isso, por exemplo, nas discussões durante o G20, realizado no Rio de Janeiro em novembro de 2024. E em novembro deste ano vai liderar a COP 30, em Belém, no Pará. Essas reuniões refletem o papel de liderança do Brasil em questões como energias renováveis, impactos das mudanças climáticas no meio ambiente, segurança humana e saúde. No instituto, desenvolvemos inteligência artificial e novas tecnologias para ajudar a enfrentar vários desses desafios compartilhados e vemos o Brasil como um potencial parceiro nessa ambição de solucioná-los. O governo brasileiro, o setor privado e a sociedade civil estão envolvidos em discussões sobre regulamentação e desenvolvimento responsável da IA, temas de interesse comum entre nossos países.

Com quais instituições conversou?
Visitamos instituições e órgãos governamentais em São Paulo, Brasília e no Rio de Janeiro. Ficamos impressionados com o trabalho que o MCTI [Ministério da Ciência, Tecnologia e Inovação] tem desenvolvido, como o plano brasileiro de inteligência artificial, que aborda questões fundamentais como privacidade de dados, desenvolvimento ético e responsável e regulamentação da IA para proteger os cidadãos sem sufocar a inovação. Conversamos sobre os esforços dos dois países para aprimorar a prestação de serviços públicos por meio do governo digital. Tivemos discussões produtivas com o LNCC [Laboratório Nacional de Computação Científica] sobre áreas de colaboração e intercâmbio de pesquisadores. Convidamos o governo brasileiro a enviar delegados para o Global Summit 2025 – AI Standards Hub, encontro que acontecerá em Londres em março deste ano. E tivemos discussões produtivas com líderes e pesquisadores ligados à FAPESP.

O que foi discutido?
No futuro, nosso instituto explorará com a FAPESP maneiras de conectar os novos Centros de Pesquisa Aplicada em Inteligência Artificial financiados pela Fundação aos centros de excelência do Reino Unido dentro da rede de universidades que fazem pesquisa com o Turing. Também há espaço para compartilhar as experiências do nosso instituto com um hub de inovação que a FAPESP planeja criar com o governo de São Paulo.

Que expertises da ciência brasileira chamaram mais sua atenção?
Fiquei encantada com o trabalho em sustentabilidade e meio ambiente. No instituto, trabalhamos, por exemplo, com a cibersegurança de turbinas eólicas. No ano passado, na Alemanha, houve um ataque cibernético que desativou milhares de turbinas de uma só vez. Não podemos depender dessas energias renováveis sem considerar questões de segurança. O Brasil é um parceiro relevante para esse trabalho, devido à sua força em energias renováveis. O Turing continuará conversando com o porto do Açu, no Rio de Janeiro, sobre navios autônomos e turbinas eólicas offshore. No campo da IA para o meio ambiente, ficamos animados com o trabalho do Inpo [Instituto Nacional de Pesquisas Oceânicas, instituição de pesquisa privada sediada no Rio] na criação de um gêmeo digital [modelo virtual de um sistema ou objeto físico que permite simulações] do Atlântico Sul.

Potenciais riscos da IA devem ser gerenciados ao longo do processo da pesquisa, em uma reflexão contínua

O Turing liderou um programa para implementar IA e ciência de dados em áreas prioritárias no Reino Unido. Quais foram os principais resultados?
O programa, financiado pelo UK Research & Innovation [Ukri, principal agência de fomento do Reino Unido], foi responsável por cerca de 100 projetos, abordando áreas importantes para a sociedade e para a economia. Produzimos trabalhos relevantes sobre gêmeos digitais, por exemplo com a Rolls-Royce, para aumentar a eficiência da indústria aeroespacial. No setor da saúde, um exemplo é o projeto Sparra [scottish patients at risk of re-admission], que utiliza modelagem de IA para prever a necessidade de retorno de pacientes cardíacos aos hospitais, a partir de dados do sistema de saúde escocês. Para cada área em que trabalhamos com o governo, desenvolvemos white papers, documentos usados para informar parlamentares e setores do serviço público. Temos cerca de 75 pesquisadores internos, com os quais trabalhamos principalmente em questões como segurança e defesa, nas quais alguns projetos são confidenciais. Para questões menos sensíveis, conseguimos envolver os melhores pesquisadores das universidades.

Quais são os principais desafios enfrentados hoje no desenvolvimento de aplicações éticas e responsáveis de IA?
Essa é uma questão muito importante. Infelizmente, não existe um conjunto fixo de regras para a criação de uma IA ética e responsável, que os profissionais simplesmente precisem memorizar para evitar causar danos com suas pesquisas. No Turing, acreditamos que potenciais riscos da pesquisa e dos resultados da IA devem ser gerenciados ao longo do processo da pesquisa, em uma reflexão contínua. Produzimos um manual intitulado The Turing way, que busca abordar esses desafios e apoiar a aplicação dos objetivos e práticas da pesquisa reproduzível ao campo relativamente jovem do aprendizado de máquina. Também criamos um protocolo e um curso para IA ética e responsável, chamado The Turing Commons. O curso foi criado para treinar a nova geração de pesquisadores na identificação e construção de arcabouços éticos para diferentes aplicações de IA.

Como equilibrar a regulamentação da IA para garantir a proteção de direitos sem comprometer a inovação?
O Reino Unido adotou uma abordagem “pró-inovação” para a regulamentação da IA, definida e justificada em um white paper do governo, que busca um meio-termo entre a Lei de IA da União Europeia e a abordagem atualmente adotada pelos Estados Unidos. Reconhecendo que as tecnologias de IA estão evoluindo em um ritmo acelerado, o governo encarregou seus órgãos reguladores de desenvolver padrões e regulamentações dentro de seus respectivos setores. O Instituto Turing tem participado desse processo em colaboração com o National Physical Laboratory e o British Standards Institution, contribuindo com o AI Standards Hub, um centro voltado para facilitar a representação de diferentes partes do ecossistema no desenvolvimento de padrões para IA. O Hub também criou uma plataforma on-line para identificar todas as regulamentações e padrões relevantes para uma determinada tecnologia. Esse trabalho é crucial para fornecer clareza à indústria, permitindo que ela inove com segurança. O governo britânico está muito interessado em implementar IA e outras tecnologias emergentes para aumentar a eficiência e os padrões dos serviços públicos. Até agora, o Reino Unido já digitalizou grande parte dos seus serviços, tanto em nível nacional quanto local. Naturalmente, o padrão de responsabilização para o uso de IA pelo governo deve ser mais elevado do que em outros setores.

Republicar