Imprimir PDF Republicar

Claudia Bauzer Medeiros

Claudia Bauzer Medeiros: Visões do futuro da computação

MIGUEL BOYAYANA pesquisadora Claudia Bauzer Medeiros tem uma vida acadêmica bastante movimentada. Professora do Instituto de Computação da Universidade Estadual de Campinas (Unicamp) há 20 anos, tem extensa produção acadêmica em mais de 30 projetos na área de bancos de dados científicos, com aplicações sobretudo em biodiversidade e planejamento agroambiental. “O ambiente da Unicamp é um celeiro de pesquisadores entusiasmados. Até hoje basta eu atravessar a rua do meu prédio para encontrar parceiros de pesquisa em outras áreas”, diz a professora, que reproduz o mesmo entusiasmo quando fala de seus alunos de iniciação científica e pós-graduação. Claudia também tem um lado militante. Presidente há quatro anos da Sociedade Brasileira de Computação (SBC), cuidou em sua gestão de um fenômeno preocupante: a redução, em nível mundial, do número de alunos interessados pela computação, principalmente as mulheres. O trabalho da SBC na busca de novas vocações, traduzido em iniciativas como a Olimpíada e a Maratona de Programação, que reúnem estudantes de todos os níveis, teve reconhecimento internacional no ano passado, quando Claudia foi laureada com o prêmio Agentes de Mudança, concedido pelo Instituto para Mulheres e Tecnologia Anita Borg e pela Sociedade Norte-Americana de Computação.

A SBC, sob a batuta de Claudia, também se preocupou em traçar alguns grandes desafios de pesquisa a longo prazo que a área de tecnologia da informação terá de enfrentar no Brasil. “Várias agências de fomento nos procuravam para tentar definir áreas prioritárias em computação e nos faltava uma resposta articulada”, afirma. No ano passado, pesquisadores da área de computação reuniram-se com especialistas de outras áreas, indicados pela Academia Brasileira de Ciências. Do debate, emergiram cinco grandes desafios, que vão desde a busca de tecnologias pós-era do silício até o desenvolvimento de pesquisas capazes de garantir a confiabilidade da teia tecnológica que abraçou nossas vidas (celulares, câmeras de vigilância, sistemas automatizados em automóveis, elevadores, hospitais etc.). Um desses desafios, o da acessibilidade, serviu de base para um edital lançado no mês passado pelo Instituto Microsoft Research-FAPESP de Pesquisas em Tecnologia da Informação (leia reportagem na página 22). Nascida no Rio de Janeiro, Claudia Bauzer Medeiros formou-se em 1976 em engenharia elétrica pela PUC do Rio de Janeiro. Mais tarde, faria doutorado em ciência da computação na Universidade de Waterloo, no Canadá, pós-doutoramento no Institut National de Recherche en Informatique et en Automatique (Inria), na França, e a livre-docência e concurso para titular, defendidos na Unicamp. Solteira, tem dois irmãos – um é professor de engenharia mecânica da Universidade Federal de Minas Gerais e a outra, professora de matemática na Universidade Federal Fluminense. A seguir, os principais trechos da entrevista concedida a Pesquisa FAPESP.

No lançamento do Instituto Microsoft Research-FAPESP de Pesquisa em TI, você apresentou uma visão da infra-estrutura de pesquisa na área de computação em São Paulo. Como é essa base paulista comparativamente ao Brasil?
Na verdade, São Paulo é um estado privilegiado em termos de pesquisa em todas as áreas. Em números de pesquisadores, de projetos de pesquisa, de grupos de pesquisa e até de programas de pós-graduação, responde por 25 a 30% do total do Brasil. Eu me referia à produção científica de modo geral, não só na computação. Pelos dados que eu obtive, São Paulo é responsável por cerca de 50% da produção científica em termos de artigos publicados. Na computação, consegui dois indicadores. O primeiro é do CNPq. A computação tem atualmente cerca de 260 pesquisadores classificados no CNPq como pesquisador 2 ou 1. E São Paulo tem 26% desses pesquisadores.

É uma comunidade pequena?
A computação é uma comunidade nova. É nova em todo o mundo, e também no Brasil, comparativamente às outras ciências. Eu voltei agora do Chile e tenho conversado com gente de vários outros países sobre esse assunto. Cada vez mais se consolida a minha noção, embora eu não tenha números exatos para comprová-la, de que o Brasil produz mais na computação do que os demais países da América do Sul juntos, com toda a certeza, e talvez até mais do que o resto da América Latina inteira. Um segundo indicador são os alunos de pós-graduação. São Paulo forma 26% de todos os doutores e mestres em ciência de computação no Brasil. Um problema nessa estatística é que existem cursos de pós-graduação de computação associados não apenas à ciência da computação, mas também às engenharias e a uma área classificada pela Capes como multidisciplinar. E esses cursos eu não levei em conta. O interessante com relação à juventude da área é que temos no estado de São Paulo, por exemplo, o programa de graduação em computação mais antigo do Brasil e um dos mais antigos do mundo, que é o da Unicamp. Ele é de 1969. O curso da Universidade Federal da Bahia foi criado na mesma época, mas as primeiras turmas da Unicamp se formaram primeiro. É inegável o papel dos cursos de computação da Unicamp como pioneiros em termos de definição de currículos para o resto do Brasil. Outra coisa que preciso ressaltar sobre a liderança do estado de São Paulo é a atuação da FAPESP. É notório que a maioria das fundações de amparo à pesquisa de outros estados tem um esquema de financiamento muito irregular. A FAPESP garante a São Paulo uma estabilidade na pesquisa que certamente contribuiu de modo fundamental para o destaque dos pesquisadores do estado, inclusive os de computação.

Qual é o estoque de graduados em computação?
Existem cursos de computação associados às engenharias, outros à matemática e a diferentes outras áreas, e fica difícil quantificar os graduados. Os dados do censo do Ministério da Educação de 2005 mostram que há cerca de 30 mil formandos por ano, um número grande mas insuficiente para a demanda das empresas. Esses 30 mil recebem diplomas em ciência da computação, engenharia da computação, análise de sistemas, administração de sistemas, uma série de denominações diferentes de curso que precisam ser garimpadas nas estatísticas nacionais. Esses 30 mil correspondem a cerca de 3,5% do total de formandos em todas as áreas no Brasil, o que não é muito. As várias denominações têm a ver com uma outra questão, que é a necessidade de reconhecer a área de computação como algo que permeia todas as áreas do conhecimento. Trata-se de uma discussão que os pesquisadores têm com os órgãos de fomento. O professor Carlos Henrique de Brito Cruz, diretor científico da FAPESP, de certa forma reconheceu esta característica da computação ao criar a coordenação de Ciência e Engenharia de Computação.

A questão da multidisciplinaridade atinge todas as áreas, e não só a da computação…
Um dos grandes desafios no Brasil em qualquer área de pesquisa é a necessidade de pesquisa conjunta. Dificilmente você consegue progredir sozinho. E a computação é um dos alicerces para as outras áreas desenvolverem pesquisa.

Qual é a sua visão desse cruzamento de áreas?
O resultado da pesquisa em computação serve para todos e, além do mais, é cada vez maior o leque de pesquisas desenvolvidas no mundo em que há necessidade de um pesquisador em computação para resolver algum problema. Por exemplo, como gerir os dados gerados pelas pesquisas, como desenvolver técnicas sofisticadas de análise. Outro aspecto é a cooperação a distância com outras equipes. Com as facilidades da internet, você pode trabalhar com muita gente. Mas como é que você maximiza a atividade de cooperação? Existe uma área de pesquisa em computação que se chama Computer Supported Cooperative Work, que é o trabalho cooperativo apoiado por computadores. Uma grande parte dessa pesquisa busca apoiar pessoas de qualquer área a trabalhar a distância. Esse cruzamento também beneficia a pesquisa na computação, abrindo novas frentes e criando desafios

Você mostrou na sua apresentação algo da base física da informática em São Paulo…
Eu só mencionei alguns programas FAPESP muito importantes, por exemplo o Tidia [Programa de Tecnologia da Informação no Desenvolvimento da Internet Avançada], que não está diretamente ligado à base física, mas que envolve uma parte de redes, por exemplo. A internet no Brasil, em grande parte, surgiu em São Paulo, com a rede ANSP. Infra-estrutura é uma palavra boa porque me lembra de mencionar o fato de que pesquisadores em outras áreas sentem a necessidade de cooperação com a computação. Só que nos pedem trabalho de infra-estrutura, de montagem de rede, desenvolvimento de programas, não realmente de pesquisa.

Há uma diferença muito grande entre pesquisa e suporte técnico…
Para poder realmente interagir com pessoas de outras áreas, quem é da computação precisa primeiro convencê-las de que tem algo a contribuir. Existe sempre o problema do vocabulário. Você precisa, realmente, trabalhar junto para convencer os sociólogos ou os biólogos ou os ecólogos ou os filósofos, quem quer que seja, de que você entende o vocabulário deles e que pode cooperar em outro nível, não apenas como um prestador de serviços.

E o que é esse outro nível?
É poder, de alguma forma, com a sua pesquisa, contribuir para a pesquisa dele – o que não envolve apenas o seu know-how de como instalar um software na máquina dele.

Como é o nível agregado de cooperação que um pesquisador de computação precisa ter, por exemplo, com um engenheiro de tráfego que está debruçado sobre o drama de manejar o trânsito numa cidade como São Paulo?
Vou dar exemplos em vários níveis, falando numa linguagem leiga. O primeiro: pesquisadores da área de interfaces podem desenvolver telas que permitam ao engenheiro visualizar diferentes níveis do que está acontecendo. A área de interfaces está crescendo muito e a acessibilidade está associada a isso, que é pesquisa em computação sobre como tornar a informação acessível a quem a está usando. Num segundo nível, temos a construção de programas que facilitem simulações. O especialista em tráfego pode entender de otimização, mas a especificação de novos programas e a sua construção exigem conhecimento de algoritmos. Você pode criar algoritmos mais sofisticados, que acelerem a visualização em tempo real do que está acontecendo, por exemplo. Isso é pesquisa em computação. Depois há a parte de infra-estrutura de rede. De onde o engenheiro de tráfego está recebendo sinais? De sensores. É preciso ter especialistas em redes de computadores que vão dizer: “Eu vou fazer uma pesquisa de como é que os sinais podem chegar até a central de tráfego de uma forma mais eficiente, com menos ruído”. E também tem a minha área, que é banco de dados. Como é que você garante a confiabilidade daqueles dados? Se um sensor falha, como é que você sabe que ele está falhando? Como você armazena os dados para fazer análise do passado para evitar que aquilo ocorra de novo no futuro? Se, por exemplo, uma curva descrevendo a oscilação do número de carros passando numa região está tendo um certo comportamento. Em que outras vezes aquele comportamento existiu? E, em existindo no passado, que isso indica para o futuro? Se aquele comportamento vai me dizer que em dez minutos acontecerá um engarrafamento monstro de cinco horas, está na hora de eu tomar uma decisão. Isso depende de pesquisa em banco de dados.

Quantas são as subáreas da ciência da computação?
Existem classificações diferentes, por vários organismos internacionais , que as revêem permanentemente porque a computação é muito dinâmica. Há cerca de dois ou três anos foi formada uma grande comissão no CNPq para reestruturar a tabela das áreas de conhecimento usadas na classificação de pesquisas. Quando eles publicaram os resultados, houve uma reação muito forte de vários grupos (inclusive da computação) que não se sentiram adequadamente classificados ou reclassificados. A iniciativa parou. O que a computação fez na época? Tínhamos sido deslocados da atual situação, que é na grande área das ciências exatas e da terra, e colocados junto com as engenharias. A Sociedade Brasileira de Computação (SBC), apoiada por todos os programas de pós-graduação em computação no Brasil, fez um texto que foi enviado para essa comissão, dizendo o seguinte: nós não somos somente exatas, nem somente engenharias, somos as duas coisas. Nós também usamos como exemplos o modelo norte-americano, o modelo europeu, e dissemos: o que queremos é uma grande área chamada computação.

Sem muita discussão teórica sobre a epistemologia da computação, não é?
A SBC tem atualmente 20 Comissões Especiais. São grupos de pesquisadores em alguma área da computação que formam um volume suficiente para organizar ao menos um evento científico por ano e que têm já tradição no Brasil. A SBC organiza por ano 35 congressos. Aí você poderia perguntar: “São 35 as áreas da computação?”. A resposta é não.

E você não conseguiria chegar a, digamos, algumas áreas prioritárias de ciência da computação?
É impossível. Todas as tentativas, inclusive mundiais, fracassaram. Considere por exemplo o critério de definir como área prioritária toda aquela que tem impacto social. Bom, será que alguém que vai propor um teorema produzirá impacto social? Se esse teorema mostrar que determinado tipo de trabalho em criptografia garante segurança dos dados médicos de alguém, ele tem impacto social. É muito difícil dizer: “Ah, isso não tem impacto social”. É difícil porque a computação permeia todas as áreas.

Você é graduada em engenharia elétrica. Ainda hoje a computação absorve profissionais de outras áreas?
A computação absorve muita gente de outras áreas e isso nos leva a um outro assunto, que é a questão da regulamentação da profissão. A SBC tem uma diretoria voltada exclusivamente a isso. Conseguimos levar um projeto de lei no congresso, há alguns anos, cujo grande mérito é ter como primeiro artigo uma frase que basicamente diz: “É livre o exercício das profissões de computação no Brasil, independente de registro em conselho”. O que isso significa? Que não é necessário um diploma em computação para você ser um bom profissional. Isso não tem a ver com a pesquisa obviamente, mas sim com a questão do profissional. Quem é responsável por contratar é a empresa. Ela vai distinguir o bom e o mau profissional, independentemente de ele ter ou não um diploma naquela área. Outros projetos de lei sobre o tema regulamentam o trabalho do programador, do analista, de cada categoria profissional de computação, associando cada diploma com as atividades que cada um pode fazer e cerceando enormemente o exercício da profissão. São baseados num cartorialismo excessivo que não se aplica à computação, inclusive porque, a cada três ou quatro anos, surgem novas profissões associadas à área.

MIGUEL BOYAYANQuem defende o cartorialismo?
Alguns conselhos profissionais ou alguns alunos de escolas de má qualidade, que, obviamente, têm medo da competição e, às vezes, alunos até de boas escolas. Temos um trabalho constante de convencimento dos alunos, que o importante é você saber. O diploma certamente é importante, mas um diploma de boa qualidade, não é qualquer diploma. Então, a maioria se convence.

Quais as chances do projeto da SBC ?
O projeto foi apresentado na Câmara dos Deputados pelo deputado Ronaldo Vasconcellos. Mas, a cada vez que muda a legislatura, volta tudo à estaca zero e os projetos são arquivados – foi o que aconteceu com o nosso. Quando um novo projeto sobre o tema for apresentado, o relator precisa buscar os projetos associados àquele assunto, juntar todos e fazer uma proposta consensual. Quando surgir uma tentativa de regulamentar alguma profissão associada à computação, automaticamente vai ser puxado o nosso projeto e aí a gente acorda e aparece lá.

A SBC organizou um evento que estabeleceu cinco desafios de pesquisa para o futuro do país no campo da computação. Como se chegou a eles?
Em vários países houve a necessidade de fazer um planejamento a longo prazo da área de tecnologia da informação. Órgãos equivalentes ao CNPq ou à FAPESP em países como a Coréia do Sul, a Inglaterra e os Estados Unidos vêm organizando, a partir de 2000, eventos chamados grandes desafios. Foram criadas comissões, selecionaram-se algumas visões, debatidas pelos pesquisadores envolvidos, que produziram propostas consensuais de desafios. Feito isso, estes países usaram os desafios para nortear a política de financiamento à pesquisa nas diferentes áreas – inclusive em computação. No Brasil, esse tipo de planejamento ainda não aconteceu. Até há vontade, mas tem tanta coisa para fazer que é difícil saber por onde começar. A SBC reconheceu essa necessidade. A cada três ou quatro meses surge para mim, como presidente, um pedido para auxiliar algum edital ou de responder quais são as várias prioridades. Não sou eu que vou dizer. Fizemos, então, uma chamada nacional, solicitando propostas de Visões de Futuro para a Computação. Isso aconteceu entre dezembro de 2005 e abril de 2006. Foram selecionadas 22 visões por uma comissão de cinco pesquisadores seniores da computação no Brasil. Eu era um deles. Essas pessoas se reuniram em São Paulo por dois dias e meio e debateram com pesquisadores convidados, fora da área de computação, indicados pela Academia Brasileira de Ciências. Saíram dessa reunião os cinco grandes desafios. O interessante foi reunir especialistas de um grande número de áreas da computação, tinha gente jovem, gente velha… Como a computação é uma área nova, há poucos pesquisadores 1A, na classificação do CNPq. Naquela época, maio de 2006, havia 12 pesquisadores 1A no Brasil. Dez participaram do evento.

Quais são os desafios?
Dois fatores permeiam todos os desafios. Um deles é a multidisciplinaridade. E o segundo é a formação de pesquisadores e de mão-de-obra que esteja mais preparada para trabalhar nesse mundo multidisciplinar, em que é necessário cooperar com todos. Meu estilo para apresentar os desafios parte de uma visão mais de hardware, até chegar no usuário. A base do primeiro desafio é: o que acontece quando acabar a era do silício? Os chips hoje são feitos de silício. Só que o silício está chegando ao limite do que ele agüenta por causa da demanda por alto desempenho. O que está acontecendo? O chip aquece muito e derrete. O que se faz? Em vez de colocar um processador, coloca-se, digamos, dois em um mesmo chip. Já ouviu falar “computador dual core”? É que tem dois núcleos em vez de um só. Uma das soluções é o paralelismo, com processadores ou computadores trabalhando ao mesmo tempo. Mas há um limite. Que outras soluções existem? Um exemplo é a computação biológica. A idéia é a seguinte: o ser humano funciona na base de trilhões de células que se reproduzem e quando, digamos, 10% delas falham, as outras seguram o rojão. Por que não fazer então computadores baseados nesse tipo de conceito, vários computadores especializados, como as células? Outro exemplo: por que a gente não usa o modelo do DNA para armazenar dados?

Como seria isso?
Uma cadeia de DNA armazena milhões de informações. Se você conseguir reproduzir esse tipo de mecanismo, não vai mais precisar de grandes discos. Outro impacto que o novo hardware vai ter é na forma como nós ensinamos computação, porque os computadores vão funcionar de forma diferente. Vamos precisar criar novos programas, novos sistemas, novas redes de computadores. O mundo vai mudar. Quando vai mudar? Não sabemos, não temos a mínima idéia. Mas, se a gente não começar a se preparar agora, certamente daqui a dez anos estaremos atrás de outros que já estão pensando nisso. Esse é o desafio: a transição do silício para as novas tecnologias.

E o segundo desafio…
O segundo tem a ver com dados, que é a minha área, com o gerenciamento de grandes volumes de dados multimeios. Vamos tomar como exemplo a gravação desta entrevista. Imagine, por exemplo, que ela já saia escrita. Suponha que alguém queira ter acesso a todas as entrevistas que discutiram os grandes desafios da computação. Quem discutiu? Quais as fotos tiradas durante a entrevista? Isso exige interligar vários tipos de dados. Existem várias máquinas de busca baseada em texto. Mas há cada vez mais necessidade de um conteúdo mais rico. Por exemplo, em vez de perguntar “quais os quadros pintados por Rembrandt?”, você faz um esboço e diz: “Que quadros têm esse jeito?”. A sua pergunta não é por texto, é por desenho. Imagine todas essas imagens de satélite que são geradas, ou dados de sensores ou, num hospital, os milhares de exames médicos de todos os pacientes que alguém pode querer estudar para fazer estudos de epidemiologia. Esses estudos teriam aplicações em jornalismo, no ensino, em ciências sociais. E o que torna esse desafio diferente é o fato de ser multimeios, envolve vídeo, som. Além disso, os dados estão na web. Isso de novo pode apoiar a pesquisa científica.

E o terceiro…
É a modelagem computacional de fenômenos artificiais, naturais, sócioculturais, da interação do homem com a natureza.

Estamos falando de, traduzindo, fenômenos sociais, a multidão enlouquecida no Carnaval…
Adorei esse exemplo! Ou interações sociais na internet. Ou num país, ou numa comunidade. A internet exige um trabalho de pesquisa enorme em modelagem de fenômenos artificiais. São milhões de computadores que entram e saem da rede o tempo todo. Isso é modelagem também, modelagem de tráfego. O que há de comum a todos os problemas é a noção de que você precisa descobrir quais são as variáveis a estudar, quais são as equações que vão descrever aquilo, quais são as simulações a fazer, quais são as análises de dados, as amostragens. Nesse workshop dos grandes desafios eu aprendi algo muito interessante: o filme O senhor dos anéis mostra uma batalha entre monstros e um grupo dos “do bem”. Como é que esse pedaço do filme foi feito? Foi feito um programa incorporando algumas interações interpessoais reais em cada um dos personagens artificiais. O que isso gerou? Uma animação que fascinou os cientistas sociais. Eles nunca tinham tido um laboratório que mostrasse interações de milhares de seres humanos. A modelagem abre possibilidades para pesquisa em ciências sociais ou em psicologia.

E o quarto desafio?
Esse é o que ajudou a construir o edital da FAPESP lançado pelo Instituto Virtual FAPESP-Microsoft. Esse primeiro edital utiliza um grande trecho do texto do quarto desafio. E isso me deixou muito feliz. Trata-se da questão da acessibilidade, do acesso universal e participativo do cidadão brasileiro ao conhecimento.

Quando você fez a apresentação, o presidente da FAPESP, Carlos Vogt, lembrou que a questão social entranhava-se no projeto de pesquisa científica. Porque aí se está tratando do acesso de toda a população brasileira...
Há a questão do acesso universal. Um segundo aspecto é o acesso participativo, algo que, de uma certa forma, tem que ser contrastado com a visão de vários órgãos do governo sobre a inclusão digital.

Significa que não basta você desenhar soluções para um determinado grupo? E esse grupo precisa falar para que você tenha mais clareza do que ele precisa…
Ele precisa participar da construção da solução e não só isso. De que adianta ter um programa sofisticado se ninguém vai usá-lo porque não atende às suas necessidades? Tem centenas de histórias de desastres de desenvolvimento de software ou hardware baseadas em concepção de sistemas sem a participação de quem vai usar. São bilhões de dólares perdidos.

Você poderia citar um exemplo?
Tem um bastante famoso que é o sistema de automatização da rede de dados do FBI. O projeto foi descontinuado depois de o Congresso americano ter aumentado o orçamento várias vezes. A cada vez vinha um relatório de um grupo de especialistas independentes apontando os problemas, trocavam-se os gestores e o projeto continuava. Tudo porque não houve um envolvimento de quem ia usá-lo. O termo participativo significa a possibilidade de dizer a cada fase: “Olha, é isso o que eu quero”. O quarto desafio é também entender como o cidadão brasileiro pode contribuir para o crescimento do país. Estamos falando da necessidade de uma alfabetização digital e não apenas da inclusão digital. Alfabetização digital não é só você saber clicar. É, ao clicar, saber onde clicar, saber usar. Você não precisa ser um especialista em computação. E isso passa por outro assunto que é a questão de treinamento de professores. Como é que você pode querer que crianças tenham inserção digital se os professores não sabem ensinar a criança a usar um computador de forma adequada? Claro que dar um notebook de US$ 100 deve ajudar, mas ele não resolve sozinho.

O trabalho da SBC acabou por servir de suporte ao edital da FAPESP. A intenção era municiar a formulação de políticas?
Foi para isso que fizemos os grandes desafios, para dar subsídios às agências de fomento. Não foi para ficarem restritos à comunidade como desejos de um grupo de pesquisadores. Como foram abraçados pela Microsoft Research, me agrada saber que os desafios elaborados por pesquisadores brasileiros estão sendo utilizados nos Estados Unidos também. Havia, tanto do ponto de vista da FAPESP quanto da Microsoft, o desejo de pesquisa inovadora e a longo prazo que fosse socialmente interessante. Os outros desafios também são socialmente interessantes, mas a questão da acessibilidade atinge diretamente as necessidades brasileiras. Nesse ponto eu tenho que reconhecer o apoio que a FAPESP deu ao evento dos grandes desafios e ao reconhecimento que o professor Brito Cruz nos deu, participando da reunião final do evento.

Qual é a sua expectativa em relação ao impacto desse tipo de iniciativa?
Um dos méritos é mostrar que existe a possibilidade de uma agência de fomento fazer cooperação com entidades externas – que também desenvolvem pesquisa, note bem, porque foi com a Microsoft Research – e que isso não é feio, porque é uma visão que muito pesquisador no Brasil tem…

Ainda?
Sem dúvida. Há quem ache que fazer acordos com multinacionais ou com com empresas é feio, que o dinheiro do governo é limpo e que o dinheiro de empresas é impuro. Existe essa visão um tanto antiga e pouco realista de que órgãos públicos não podem se associar a empresas para apoiar pesquisa séria. O instituto pode servir de modelo para outros órgãos públicos de fomento. Outro impacto do edital é atrair pesquisadores de outras áreas para cooperar com os de computação.

E o quinto desafio?
É o desenvolvimento de sistemas confiáveis ubíquos. Cada vez mais artefatos da computação estão presentes onde quer que a gente vá. É sensor, é celular, é o Big Brother de 1984 [George Orwell]. E cada vez mais temos a necessidade dessas coisas para tocar a vida. É o elevador que tem computador dentro. É o sistema de trânsito. É o celular, que hoje em dia só eu não gosto de usar. Isso é ubiqüidade. Por outro lado, a nossa dependência gera a necessidade de confiabilidade. Nossas vidas dependem de muitos sistemas computacionais estarem funcionando. E também de crescimento em escala de tudo isso, quer software, quer hardware. Não existe em computação ainda teoria e técnica suficientemente abrangentes e comprováveis que garantam esse crescimento, essa ubiqüidade, essa confiabilidade.

Você está à frente da SBC, é professora da Unicamp e, aqui na FAPESP, é um dos três coordenadores da área de computação. Como é que você faz para ordenar tudo isso sem um software gerenciador na sua vida?
Isso é muito complicado. Não, não tem software gerenciador [risos]. Todo pesquisador com múltiplas atividades vai dizer que lá se vão os fins de semana, as noites. Na verdade, a gente faz o que faz porque a gente gosta, mas, em compensação, existem sacrifícios associados. Eu tenho muita sorte de fazer o que eu gosto sempre, de ter alunos de maravilhosos, de graduação e de pós-graduação. A Unicamp tem esse grande mérito. Por ser uma boa universidade, atrai bons alunos, e os bons alunos atraem bons alunos. E os bons alunos puxam pelos professores. Tenho um enorme orgulho de ser professora da Unicamp.

A SBC promove olimpíadas e a maratona de programação. Qual é o impacto dessas iniciativas?
Considero a SBC um modelo porque consegue, com pouquíssima gente, fazer muitas coisas – se descabelando, é claro. Existe essa questão da inclusão digital, que a SBC está reforçando bastante via as olimpíadas e, num outro nível, via Maratona de Programação. As Olimpíadas de Programação ocorrem no Brasil inteiro, para crianças desde o primeiro ano do ensino fundamental até o último do ensino médio. São provas em quatro níveis, feitas com lápis e papel. São questões de lógica e, nos dois níveis mais avançados, para os mais velhos, já envolvem um pouco de programação. A escola se inscreve e é tudo gratuito. Após duas etapas de seleção, os melhores no Brasil inteiro vêm para uma universidade, atualmente a Unicamp, ter aulas com professores da área. Terminado um curso de uma semana, há uma prova para os mais velhos e os quatro melhores vão para as olimpíadas internacionais. O Brasil já ganhou muita medalha de bronze e de prata. Ainda não ganhamos ouro.

Qual é o objetivo?
Atrair mais gente para a área de computação. Isso é estratégico para nós e é estratégico para o Brasil. No mundo inteiro está diminuindo assustadoramente o número de alunos interessados em computação. Aqui no Brasil, nós da SBC tivemos a grande sorte de contar com o apoio da Fundação Carlos Chagas, que nos patrocina. Ela nos dá, desde o ano passado, recursos para tocar adiante as olimpíadas e a maratona. A Fundação acha que essa é uma forma muito boa de inclusão digital e de formação de jovens.

Republicar