Por estar na área da ciência da computação desde os anos 1980 como professora e pesquisadora, Maria das Graças Volpe Nunes sabe o que os programas de inteligência artificial (IA) mais recentes podem ou não fazer, a despeito dos exageros com que possam ser apresentados. Nesta entrevista, concedida por plataforma de vídeo, ela expõe os equívocos mais comuns relacionados a essa área, como o de pensar que a máquina compreende o que perguntamos, quando na verdade apenas fornece as sequências de palavras mais prováveis para acompanhar as que foram apresentadas.
Ela também alerta para a falta de questionamento sobre o alcance e eventuais erros dos programas. “Se algo der errado, quem deve ser responsabilizado: a máquina, o programador ou quem alimentou a máquina com informações?”, indaga Nunes, de 65 anos, que fez sua carreira no Instituto de Ciências Matemáticas e de Computação da Universidade de São Paulo (ICMC-USP), em São Carlos, e hoje, aposentada, continua na instituição como professora sênior.
Processamento de linguagem natural (PLN)
Instituição
Instituto de Ciências Matemáticas e de Computação da Universidade de São Paulo (ICMC-USP)
Formação
Graduação em ciências da computação pela Universidade Federal de São Carlos (UFSCar, 1980), mestrado em ciências da computação pela Universidade de São Paulo (USP, 1985) e doutorado em informática pela Pontifícia Universidade Católica do Rio de Janeiro (PUC-RJ, 1991)
A pesquisadora dedicou-se a uma área de IA, o processamento de linguagem natural (PLN), que investiga a construção de sistemas que processam as linguagens humanas, escritas ou faladas. Ela foi a coordenadora do grupo que, na década de 1990, desenvolveu o Revisor Gramatical Automático para Português, um projeto pioneiro no país executado em parceria com a então fabricante de computadores Itautec-Philco e apoiado pela FAPESP (ver Pesquisa FAPESP nos 35, 47 e 58). O revisor foi incorporado pela Microsoft ao processador de textos do Windows, disponível para consumidores brasileiros.
Casada com o matemático Wagner Vieira Leite Nunes, professor aposentado do ICMC-USP, com um filho psicólogo de 30 anos, Bruno, ela também escreve crônicas e contos, armazenados em um site, sob o pseudônimo Anelê Volpe.
Você é conhecida principalmente pelo revisor gramatical de português, que seu grupo criou nos anos 1990. O que fizeram depois disso?
Muita coisa. Sou uma pesquisadora de inteligência artificial, de um campo bastante específico, o processamento de linguagem natural, que investiga a construção de sistemas que processam as linguagens humanas, escritas ou faladas. Chamamos de linguagem natural para diferenciar de outras linguagens, como a de programação, gráfica, matemática, entre outras. Esses sistemas podem revisar e corrigir textos, traduzir de uma língua para outra – os chamados tradutores automáticos –, resumir ou simplificar um texto, responder a perguntas – os chatbots –, analisar a coerência de um texto e sua adequação a determinado objetivo. O projeto do revisor gramatical no ICMC-USP, por sua complexidade, possibilitou a criação do Nilc, o Núcleo Interinstitucional de Linguística Computacional, que formou um grande número de linguistas computacionais, hoje espalhados por universidades brasileiras e internacionais. Aquela equipe foi responsável por criar importantes recursos necessários para o processamento do português brasileiro.
Que recursos foram esses?
Dicionários, léxicos, programas, enfim, recursos linguísticos-computacionais que precisávamos para processar a língua portuguesa que não existiam até então. Nosso grupo ficou conhecido e se tornou um aglutinador de pessoas espalhadas em todo o Brasil. Fizemos várias parcerias, convênios e projetos. Com isso, outras equipes de pesquisadores também se fortaleceram. Hoje há grupos de PLN bastante ativos em praticamente todas as universidades e centros de ensino no Brasil. Desde 1993, a comunidade de PLN do português organiza a conferência Propor [International Conference on Computational Processing of Portuguese Language]. Ela acontece a cada dois anos, no Brasil e em Portugal, alternadamente, para apresentação de resultados de pesquisas acadêmicas e tecnológicas e integração dos grupos de pesquisa da área. A mais recente, em março, foi na Galícia, na Espanha, já que muitos consideram que a língua galega e o português são variedades de um mesmo idioma.
O que já fizeram com os portugueses e os espanhóis?
Com os portugueses temos bastante contato, sendo o Propor a principal iniciativa. Com os espanhóis as relações se dão via projetos de cooperação científica e intercâmbio de estudantes. No fim dos anos 1990, tivemos um projeto de tradução com a Universidade de Alicante. Esse é um tema com o qual trabalhamos há muito tempo. Na mesma época, entramos em um grande projeto de tradução automática multilíngue da Universidade das Nações Unidas com representantes de cada língua da ONU. Diferentemente de como ocorre atualmente, naquela época os sistemas de tradução eram feitos para cada par de línguas. Esse projeto, que considerava a existência de uma linguagem lógica intermediária, a UNL [Universal Networking Language], previa um decodificador e um codificador para UNL, para cada língua natural. Dessa forma, cada equipe responsável por uma língua deveria desenvolver apenas esses dois sistemas para aquela língua. Uma vez disponibilizados todos esses pares, qualquer pessoa poderia traduzir arquivos de texto em qualquer língua para a sua própria e vice-versa. Nós, do Nilc, ficamos responsáveis pelo decodificador e codificador da língua portuguesa.
Nosso grupo da USP ficou conhecido e se tornou um aglutinador de pessoas espalhadas pelo país
Deu certo?
Não. Por duas razões. Uma delas técnica: para essa linguagem intermediária ser realmente boa, teria de ser universal, capaz de lidar com os significados de todas as línguas. Como ela precisava ter uma materialidade, escolheram o inglês. As palavras do inglês supostamente dariam conta de representar univocamente todos os conceitos em todas as línguas, e isso não ocorre. A outra limitação era política. Cada equipe – e eram dezenas – defendia seu ponto de vista e não se chegava a acordo nenhum. Não deu certo, mas do ponto de vista do PLN aprendemos muito e fizemos vários projetos de mestrado e doutorado no Nilc com recursos de tradução automática. Pouco tempo depois, a tecnologia do aprendizado de máquina [programas que aprendem a partir de dados] dominou essa área e resultou em tradutores automáticos muito superiores, como o Google Translator.
Além do revisor, saiu outro produto comercial do seu grupo?
Diretamente, não. O Nilc, apesar de ter nascido como um gerador de produto, não tem esse objetivo. Para nós, mais importante são os avanços do conhecimento. O núcleo é um centro de pesquisas e de construção de recursos básicos para o processamento do português, como analisadores sintáticos, semânticos, dicionários, que são a base do conhecimento linguístico. Damos acesso irrestrito a tudo o que construímos. As aplicações desenvolvidas na academia são normalmente protótipos para demonstrarem as ideias propostas. Produtos comerciais decorrem de projetos de parceria com empresas, como no caso do revisor, que teve o apoio da Itautec. Atualmente, é mais comum que empresas invistam nos grupos acadêmicos em um primeiro momento e, depois, sua equipe interna termina o trabalho desenvolvido na academia. Entre os projetos já realizados e em andamento, alguns protótipos incluem sumarizadores automáticos [ferramentas que produzem resumos de notícias ou de vários documentos] e sistemas que simplificam textos para adequar a linguagem para as crianças ou adultos pouco letrados. Também há ferramentas que detectam fake news, auxiliam a escrita científica, fazem transcrição de áudio, entre outras.
A que atribui os desenvolvimentos recentes da IA?
Primeiro, ao avanço do poder computacional. Hoje os computadores são muito mais rápidos e podem se juntar para aumentar seu poder. Segundo, à computação em nuvem, que amplia a capacidade computacional para muito mais gente. Essa elevada capacidade de processamento possibilitou que antigos modelos de inteligência artificial, as redes neurais artificiais [RNA], pudessem mostrar seu real potencial. RNA são modelos matemáticos de processamento inspirados no funcionamento do cérebro humano. São programas formados por camadas de processamento capazes de promover o aprendizado de um determinado conceito a partir de muitos exemplos daquele conceito. A quantidade de dados que é fornecida para o programa aprender é muito relevante para o resultado final, assim como a estrutura da rede neural. Esses modelos existem há muito tempo, mas requeriam muitos dados e muito poder computacional, que só hoje temos. Além disso, o modelo de redes neurais profundas [deep learning] revolucionou a área com resultados muito expressivos.
Todos têm acesso a essas tecnologias?
Vou falar de PLN. Os grandes modelos de linguagem [LLM, em inglês], que são treinados a partir de imensos volumes de dados e de parâmetros, representam a língua em que foram treinados. Dessa forma, são capazes de gerar textos com qualidade comparável à dos humanos – às vezes, até superior. Embora seja possível conversar naturalmente com um chatbot baseado em LLM, como o Chat- GPT, ele não compreende a língua. Essa “mágica” ocorre devido a um complexo sistema de camadas de pesos numéricos. O fato é que atualmente quase todos os problemas de PLN e IA podem ser resolvidos com LLM com desempenho muito superior ao dos sistemas anteriores. Mas esses modelos são muito caros de se construir por necessitarem de muitos dados, de muita gente para tratá-los, de servidores muito potentes e de muita energia. Apenas as grandes multinacionais de tecnologia, as big techs, detêm essa capacidade. Para ter acesso a esses modelos, é necessário pagar pela sua melhor versão ou usar uma mais limitada. Ou ainda alugar servidores em nuvem para treinar seu próprio modelo, o que é muito caro. Seja como for, o mundo todo está à mercê dos detentores dessa tecnologia. Em larga medida perdeu-se o controle sobre o que fazem esses sistemas. Até as informações linguísticas clássicas, como ortografia, gramática, significado de palavras etc., já não são tão necessárias. É um grande ponto de ruptura para o PLN. Estamos a um passo de jogar fora tudo o que fizemos até aqui para nos apoiar apenas nos LLM e seguir adiante.
Falta crítica ao uso de IA?
Sim. Deveria haver um compromisso ético das pessoas que fazem IA, mas não tenho certeza se elas têm noção do alcance das suas decisões. Será que estão escolhendo os dados com discernimento, prevendo o impacto das decisões delas? Acho que não. As big techs contratam muitas pessoas no mundo subdesenvolvido para reunir conjuntos de dados e treinar os programas. As pessoas que trabalham sobre esses dados estão desconectadas dos objetivos daquilo que estão fazendo. Do lado da academia, não vejo ainda uma atitude de mudança do comportamento para chamar a atenção para isso. É nossa obrigação questionar. Da mesma forma que devemos divulgar como a IA pode ajudar a solucionar vários problemas da sociedade – na medicina, na agricultura, na segurança pública, no bem-estar –, temos a obrigação de alertar sobre seus limites e potenciais riscos. Se não temos respostas para tudo, se não sabemos como mitigar esses problemas, que ao menos possamos alertar a sociedade para que ela própria tome as medidas cabíveis. É o que temos visto fazer vários órgãos governamentais pelo mundo afora.
Deveria haver um compromisso ético das pessoas que fazem sistemas baseados em inteligência artificial
Vem daí a necessidade de regulamentar os usos da IA?
Exato. Temos de fazer regulamentações, como está sendo discutido no Brasil e em outros países (ver Pesquisa FAPESP no 331), porque os modelos de IA generativa, entre eles o ChatGPT, tem senões. O maior deles é que os programas não são explicáveis. Nem mesmo quem faz os programas sabe direito o que acontece lá dentro, porque são milhões de combinações de números e funções. Também não se sabe dizer como surgem os erros e quem os causou. Se algo der errado, quem deve ser responsabilizado: a máquina, o programador ou quem alimentou a máquina com informações? E o que fazer para corrigir os erros? Não se sabe, porque esses programas não são explicativos. É por isso que se diz que a IA generativa não tem transparência. A empresa responsável precisaria dizer aos seus clientes exatamente como eles funcionam, quais resultados pode-se esperar deles e em que situações eles podem errar. Mas isso não acontece. Hoje, muitos da comunidade de IA pesquisam formas de mitigar essas deficiências.
Por causa da forma que os programas são construídos?
Sim, por conta do modelo de redes neurais profundas, dos modelos de língua etc. Precisamos de regras porque esses sistemas têm um risco enorme de gerar resultados imprevisíveis e potencialmente nocivos. O problema é que já há pessoas usando essas tecnologias sem que existam regras que definam o que deve ser feito para lidar com as consequências eventualmente indesejadas. Veja o caso do treinamento de modelos de língua com dados das redes sociais. Pela natureza das redes, o material linguístico usado para treinar o modelo pode estar contaminado de expressões de racismo, xenofobia, homofobia e outros valores indesejados, cuja propagação é nociva. Precisamos ter muito cuidado. Mas não estamos tendo.
Quais são os grandes desafios do PLN hoje?
O sucesso repentino promovido pela tecnologia dos LLM tornou-se paradoxalmente um desafio para a área. Como adotar como solução um modelo pouco transparente e controlável para resolver todo tipo de problema? Mas há outros. Um dos grandes desafios é tratar computacionalmente a semântica da língua natural, ou seja, fazer com que um sistema seja capaz de eleger o correto sentido expresso por uma sentença ou texto. A máquina entende muito bem a forma de uma língua. Ensinamos a ela o que é uma palavra, como formar sentenças gramaticalmente corretas, porque expressamos racionalmente a morfologia e a gramática. Já o sentido, não, porque não há regras formais para definir o sentido, o significado. Os LLM parecem resolver o problema da significação, mas é uma impressão equivocada. Os modelos de línguas são programas que conhecem trilhões de palavras em seu contexto, como as sentenças, e acabam “aprendendo” aquela língua. Se você perguntar: “Estou com frio hoje, o que você me sugere usar?”, o sistema vai responder algo como: “Sugiro uma blusa de lã”. Fica-se com a impressão de que ele entendeu a pergunta.
Ele não entendeu?
É uma ilusão. A máquina recebeu tanta informação que apenas fornece a sentença mais provável que deve aparecer depois de uma sequência de palavras apresentada, que, para o internauta, é uma pergunta. O programa não tem a menor noção de que é uma pergunta, porque lida apenas com sequências de palavras. Quem dá sentido ao que foi dito somos nós, considerando uma resposta adequada à pergunta. Nós também não sabemos como se processa nosso entendimento, como damos significado às palavras e às coisas. Como é que esperamos poder construir uma máquina que faça o que nem nós sabemos? Há outros problemas. Assim como todo sistema de IA, os resultados do PLN não são exatos, são sempre aproximações das soluções ideais. A tradução automática é muito boa, mas não é perfeita; um sumarizador automático pode ser muito útil, mas não é perfeito. Temos de ver os problemas éticos e os erros dos programas enquanto os construímos, não depois. Se o algoritmo apresentar alguma situação de risco, temos de evitar e corrigir. Em vez de tentarmos achar a solução ótima a qualquer custo, que tal ficarmos com a melhor solução que evite riscos e prejuízos?
Como minimizar esses problemas?
O que está ao nosso alcance é mostrar o conhecimento que temos e esclarecer sobre como essas coisas se dão. Essa é uma preocupação do grupo Brasileiras em PLN, do qual faço parte e que já tem 211 participantes. Em 2023 lançamos o livro Processamento de linguagem natural: Conceitos, técnicas e aplicações em português. É uma edição on-line e gratuita. Até então, não havia um livro didático sobre o PLN em português que fosse tão abrangente. Helena Caselli, da UFSCar, e eu somos as organizadoras do livro, que tem mais de 60 autores. Queremos mantê-lo sempre atualizado e mostrar o que está por trás dos sistemas de PLN que trabalham com a língua portuguesa. Em novembro será lançada a terceira edição ampliada e atualizada do livro.
Há outras iniciativas?
Desde que criamos o Nilc estamos construindo mais recursos para o português, como um grande corpus [coletâneas de documentos] para treinar LLM, mas que seja abrangente e variado o suficiente para ser representativo da língua que queremos modelar. Há grupos de pesquisa, como o Centro de Inteligência Artificial, apoiado pela FAPESP e pela IBM, do qual participo, que faz o mesmo. Mas tudo isso demanda tempo, dinheiro e recursos humanos. No final de 2022, o mundo foi atropelado por uma startup, a Open AI, que lançou o ChatGPT, um chatbot que usa modelos de línguas naturais, incluindo o português. Vejo uma ânsia muito grande em produzir sistemas rapidamente, porque esses novos modelos permitem. Esses programas podem ser usados em escolas, por crianças, ainda que estejam muito mal testados. O Chat-GPT é um exemplo. Quando surgiu, foi uma maravilha, mas alguns dias depois todos já perceberam que ele produzia muitas informações falsas.
Por que se interessou por programação?
Sou de Sertãozinho, cidade paulista perto de Ribeirão Preto, e vim para São Carlos em meados dos anos 1970 para fazer um curso de biblioteconomia. Já me fascinava estar com os livros, embora não tivesse consciência disso naquela época. Mas cursei apenas seis meses. Eu precisava de um desafio maior do que aquele. Como já estava aqui, examinei os cursos das duas universidades, UFSCar e USP. Optei por fazer na universidade federal o curso de computação, na época vista como a profissão do futuro, embora eu não tivesse a menor ideia do que era. Aliás, no primeiro ano de computação, em 1977, a gente não tinha contato com computador. Havia apenas um minicomputador, míni só no nome, pois era uma máquina enorme. Ficava numa sala grande e refrigerada, com uma pessoa recebendo os cartões e as fitas perfuradas que codificavam os programas.
O que estudou no mestrado e no doutorado?
Comecei o mestrado na USP em uma área chamada análise de algoritmos sob orientação da professora Maria Carolina Monard [1941-2022]. Eu comparava qual algoritmo fazia a melhor busca de palavras em arquivos de texto, bem antes da internet, do Google e de outras ferramentas de busca. Meu doutorado foi feito na PUC do Rio sob a orientação do cientista da computação Tarcísio Pequeno, que na época trabalhava com teoria da computação. Lá, conheci duas professoras, Clarice Sieckenius de Souza e a jamaicana Donia Scott, da Universidade de Brighton, na Inglaterra, que estava lá em um ano sabático. Com elas comecei a trabalhar com PLN. Terminei o doutorado, voltei para a USP de São Carlos, onde já atuava como professora e logo iniciamos o projeto do revisor gramatical. A partir daí mergulhei na área de PLN e passei a atuar definitivamente nesse campo.
Qual a importância de Monard para a IA brasileira?
Ela foi pioneira nas pesquisas de IA no país. Como professora titular do Departamento de Ciências da Computação do ICMC-USP, orientou um grande número de pesquisadores desde os anos 1980. Sempre fez pesquisa de alta qualidade e desbravou a área de aprendizagem de máquina, responsável pelo grande avanço da inteligência artificial. Em ambientes predominantemente masculinos, como toda a área de ciências exatas e as profissões tecnológicas, Monard foi um exemplo para muitas jovens. Infelizmente, o número de mulheres que optam pela informática caiu muito nas últimas décadas. Quando eu era estudante na UFSCar, da terceira turma de ciências da computação, a quantidade de meninos e meninas era praticamente a mesma. Conforme a sociedade foi se informatizando e as profissões em computação foram se popularizando – e não é que isso seja uma causa –, o número de mulheres nessa área caiu bastante. Vejo, contudo, que há hoje vários movimentos de inclusão de meninas nas ciências exatas em geral e, em particular, em computação. Acredito que esses interesses mudam de tempos em tempos, dependendo de fatores que vão além da aptidão de cada um. Seja como for, a ampla divulgação da área, a quebra de preconceitos de gênero e os exemplos de mulheres que ocupam posições de destaque são instrumentos eficazes para reverter esse quadro.
Antes, a quantidade de meninos e meninas na computação equivalia. Hoje, o número de mulheres caiu muito
Por que se aposentou em 2013, com menos de 60 anos?
Pedi a aposentadoria porque já tinha completado o tempo necessário. Achei que já tinha contribuído bastante. Fui coordenadora do curso de computação na graduação e do programa de pós-graduação, participei de todas as comissões possíveis e imagináveis. Concluí que não precisavam mais de mim, e que na sala de aula os alunos iriam se beneficiar mais dos professores mais jovens, que tivessem feito doutorado recentemente, pois em áreas tecnológicas a atualização constante do conhecimento é muito importante. O nosso grupo de pesquisa, o Nilc, estava muito bem administrado pelo professor Thiago Pardo, que foi meu aluno de doutorado. Também não precisavam mais de mim ali.
Saiu, mas não parou, certo?
Continuo na USP como professora sênior. Dou algumas aulas eventuais e acompanho os trabalhos do Nilc. Um deles é o Poetisa, um projeto que reúne vários grupos para a construção de corpus do português escrito e falado no Brasil. Esses textos servem, entre outras coisas, para treinar algoritmos que fazem análise sintática [parsing], uma tarefa importante para a maioria das aplicações em PLN. Há vários parsers de português, mas temos espaço para melhorar. Esse é um trabalho para muitos anos. Outro projeto do grupo trata de processamento de fala, coordenado pela professora Sandra Aluísio, também do ICMC-USP. Pretendemos criar transcrições da linguagem falada, a partir de áudios, com amostras representativas do Brasil, e depois empregar nas aplicações que vão usar áudio de português.
Quando começou sua carreira de escritora?
É um desejo antigo, mas talvez lá atrás eu não reconhecesse. Hoje vejo que, se não fosse professora, adoraria ser escritora. Comecei a escrever em 2005, antes de me aposentar. Fiz umas crônicas, gostei e decidi continuar. Em 2007, descobri um aplicativo chamado 700 palavras. Ele propunha que durante 30 dias você escrevesse 700 palavras por dia. Topei o desafio e durante um mês escrevi uma crônica diariamente. Foi muito divertido. Hoje tenho um site, que construí no início da pandemia, com tudo que eu já havia escrito. Não queria publicar um livro porque eram coisas muito pessoais, muito envergonhada também, mas num site, com o pseudônimo de Anelê Volpe, me sinto mais livre. Até publiquei um livro, sobre a história da minha família, para dar para os meus familiares.