léo ramosDemi Getschko foi o primeiro brasileiro a ter o nome incluído no Hall da Fama da Internet, uma honraria concedida pela Internet Society (ISoc), organização não governamental formada por representantes de todo o mundo com o objetivo de promover a evolução da internet. O mérito de Getschko foi contribuir para que a rede mundial de computadores alcançasse êxito no Brasil durante os seus primórdios. Estava à frente do Centro de Processamento de Dados (CPD) da FAPESP em 1991 quando, ele mesmo diz, “pingaram os primeiros pacotinhos da internet” na sede da Fundação no bairro da Lapa, em São Paulo. Era o primeiro contato do país com a novidade que traria inovações em vários aspectos na vida das pessoas e das instituições. Por meio de acordos diretos com a administração das redes norte-americanas acadêmicas, Demi Getschko e a equipe do CPD da FAPESP conseguiram a delegação do domínio .br, que identifica o código do país nos endereços da web e dos e-mails.
Idade: |
61 anos |
Especialidade: |
Redes de computação |
Formação: |
Escola Politécnica da Universidade de São Paulo (da graduação ao doutorado) |
Instituição: |
Núcleo de Informação e Coordenação do Ponto BR (NIC.br) e Pontifícia Universidade Católica de São Paulo (PUC-SP) |
Com a implantação da internet e sua rápida expansão, que aconteceu primeiro no meio acadêmico, Getschko coordenou, ainda como chefe do CPD da FAPESP, a área de operações da Rede Nacional de Pesquisa (RNP) que interligou as principais universidades do país. Ele também ajudou a implementar e a dirigir a rede Academic Network de São Paulo (ANSP), provedora das universidades paulistas. Por participar de todo esse processo, ele esteve na composição do Comitê Gestor da Internet no Brasil (CGI) desde setembro de 1995 até hoje. Em 2005, foi convidado para montar e ser o diretor-presidente do Núcleo de Informação e Coordenação do Ponto BR (NIC.br), entidade que é o braço executivo do CGI e coordena os serviços da rede no Brasil. Nos últimos anos, participou ativamente da elaboração do marco civil da internet, aprovado este ano no Congresso Nacional. Antes de assumir o NIC.br, ele também foi membro da diretoria da Internet Corporation for Assigned Names and Numbers (Icann) e, depois de deixar a FAPESP em 1996, foi diretor de tecnologia da Agência Estado e do provedor IG. Engenheiro elétrico formado pela Escola Politécnica da Universidade de São Paulo (Poli-USP), onde fez mestrado e doutorado, Getschko é professor na Pontifícia Universidade Católica de São Paulo (PUC-SP).
Como é ser escolhido para o Hall da Fama da Internet?
Faz três anos que a Internet Society [ISoc] escolhe pessoas para o Hall da Fama. A ISoc é uma associação formada em 1992 e concebida por Robert Kahn, Vint Cerf e Lyman Chapin [norte-americanos pioneiros na tecnologia da internet], quando a internet foi aberta para a comunidade fora do mundo acadêmico. A ISoc decidiu criar esse tipo de reconhecimento. São três categorias distintas: pioneiros, inovadores e conectores globais. A primeira contempla os que deram profunda contribuição à tecnologia da internet e desenvolveram os protocolos da família TCP/IP [Transmission Control Protocol e Internet Protocol]. Nela se inserem, por exemplo, Vint Cert, Robert Kahn, Jon Postel, Steve Crocker e outros. Os inovadores são aqueles que construíram ferramentas para operar sobre a estrutura básica da internet. Entre eles estão pesquisadores como Tim Berners-Lee, que criou a web, uma importantíssima aplicação sobre a internet. A terceira categoria é a dos conectores globais com o pessoal que se envolveu com a disseminação da rede e apoiou a internet em vários locais do mundo. É nessa terceira que meu nome foi lembrado.
Da América Latina o senhor é o único?
Sou o segundo a ser nomeado da América Latina. Tivemos, no ano passado, Ida Holz, do Uruguai, da Universidade Nova República, de Montevidéu, que ganhou também nessa categoria de Global Connectors. Ela é bastante conhecida na área porque participou do início de muitas redes acadêmicas. Fui o primeiro do Brasil e o segundo da América Latina. Mas vamos reconhecer uma coisa muito importante: essa designação pessoal de alguém é algo absolutamente injusto, porque sempre é um trabalho coletivo. Como não se pode eleger um time de muitos, elegem um ou dois. Então queria deixar claro aqui que ninguém fez nada sozinho. E eu sou uma das pessoas que participaram do time que trouxe as redes acadêmicas para o país e que tinha gente da FAPESP, da RNP [Rede Nacional de Pesquisa], do LNCC [Laboratório Nacional de Computação científica], da UFRJ [Universidade Federal do Rio de Janeiro], e muitos mais, que montaram conexões acadêmicas no Brasil no fim dos anos 1980. Por algum motivo acabaram me citando, talvez porque eu tenha ficado na área de forma mais ou menos constante.
O senhor faz parte da Internet Society?
A Internet Society [ISoc] é uma organização não governamental que tem sede nos Estados Unidos e capítulos pelo mundo. Eu faço parte do chapter brasileiro, que deve ter uns 300 membros. A Internet Society central é mantida com recursos financeiros do registro de domínios sob o .org, que é operado pelo PIR [Public Interest Registry]. Assim, tudo que é registrado debaixo de .org gera recursos que são carreados para a ISoc. Da mesma forma que o .br gera recursos a partir do registro de domínios para o CGI e para o NIC. Uma das principais atividades da ISoc é coordenar as reuniões do IETF [Internet Engineer Task Force], o órgão que trabalha na geração dos padrões da internet. O IETF é coordenado pelo IAB [Internet Architecture Board], que mantém a ortodoxia da internet, no sentido de observar e preservar os princípios originais da rede.
O que seriam esses princípios originais da internet?
A internet foi concebida para ser uma rede aberta e única. Espera-se que ela não se fragmente. Quando acontecem tensões na China, na Rússia ou em outros lugares, surgem ameaças de fragmentação. A internet é uma rede cooperativa e a raiz de seus nomes é única. Quando você escreve um nome que, por exemplo, termina em .com, ele é resolvido de forma única: não existem duas formas de nomear um equipamento na rede. Além disso, outro princípio básico é que ela teria que ser mantida sempre neutra entre os dois pontos finais: o emissor e o receptor. Esteja você na Austrália e eu no Brasil, ninguém no meio da rede teria o direito de se intrometer nos pacotes e seu conteúdo, nos serviços e protocolos usados. A função do “meio” da rede é a de carregar informação (pacotes) de um ponto da rede para o outro. É uma grande “despachante” de pacotes. A rede nunca entra no mérito do que está carregando, só despacha. Claro que, com o tempo, aparecem coisas no meio do caminho, como ataques propositais a sítios, que podem afetar um pouco o conceito fim a fim, a ideia original da internet. Outra fonte de tensão é o fato de que a internet representa uma ruptura para uma série de modelos preexistentes. Um deles é o modelo tradicional de geração de padrões. A internet não tem um processo formal envolvendo governos e grandes empresas de telecomunicações, como acontece, por exemplo, na ITU [International Telecommunication Union], mas sim um processo aberto a pessoas e entidades de qualquer área, seja acadêmica, técnica ou comercial, que querem participar. Os voluntários se reúnem três vezes ao ano, sempre representando a si próprios, não instituições, discutem e geram padrões que até hoje sustentam e fazem crescer a rede. Outra característica é que, como sua base está estabelecida a partir de padrões abertos TCP/IP, todos estão livres para gerar aplicações sobre essa base sem precisar de nenhuma licença ou tipo de permissão: a chamada permissionless inovation [inovação sem permissão]. Ninguém perguntou se podia lançar o Twitter ou o Facebook. Você tem uma ideia? Implante e jogue na rede. Se for um sucesso, muito bem, você pode se tornar milionário; se for mau, melhor pensar em outra ideia. Essas são características típicas da internet que não existem na telefonia ou nas telecomunicações.
Existem propostas nos Estados Unidos, pelo crescimento intenso do uso da rede com vídeo, de aumentar a participação arrecadatória das empresas de telecomunicações. Como o senhor vê isso e como está a situação no Brasil?
É importante racionalizar o tráfego para o benefício de todos. Uma das formas de fazer isso é implantar Pontos de Troca de Tráfego [PTTs], ou IXP [Internet Exchange Points]. No Brasil o ponto mais importante de tráfego está em São Paulo, onde já bateu 500 gigabites por segundo de pico, que é um número muito sério. Somos o quarto ou quinto país do mundo que mais usa PTTs na troca de tráfego. O que se nota hoje é uma mudança no aspecto da curva de tráfego no PTT de São Paulo e que é uma boa amostragem brasileira. Antes tínhamos um pico às 11 horas, caía um pouco na hora do almoço, voltava a subir às 14 horas, alcançava o máximo às 16 horas e começava a descer, decaindo até a madrugada. De uns seis meses para cá, continua o pico das 11h30, cai um pouquinho no almoço, sobe às 14 horas e vai subindo até as 16h30, aí começa a cair e quando dão 18h30, 19 começa a subir de novo e atinge o pico do dia às 22 ou 23 horas.
Por causa do quê?
Porque o tráfego é cada vez mais afetado por aplicações que se dedicam a entretenimento. As pessoas estão usando mais banda em casa do que no escritório, porque não assistem a filmes durante o trabalho, mas em casa sim. E domingo, que era um dia de tráfego muito baixo, hoje tem mais tráfego que segunda ou terça. Significa uma mudança no perfil de tráfego em direção à área de entretenimento, não apenas só comércio, informação, serviço etc. Um filme usa muito mais banda que um acesso à conta bancária, por exemplo. A discussão sobre isso é complicada, envolve inclusive o debate sobre neutralidade. Só para abrir um parêntese, em fins de abril tivemos em São Paulo o NetMundial, um evento que gerou um importante documento final. Eu participei da equipe de consolidação e de redação deste documento, que foi um processo de busca do consenso. Consenso é algo que, teoricamente, não é inaceitável pelos participantes, pode desagradar um pouco a cada um, mas o faz por igual. Neste documento de consenso, a palavra “neutralidade” [net neutrality] não aparece, mas foi preservado o importante conceito de fim a fim, de que não pode haver interferência de um intermediário no pacote de dados que trafegam na rede. Por que não aparece neutralidade? Porque essa palavra hoje está semanticamente muito carregada. O que se entende por neutralidade nos Estados Unidos não é o mesmo que se entende na Europa ou na Índia. É difícil definir, e alguém sempre vai dizer que não aceita a definição do outro, mesmo sem saber bem qual é. Vou dar um exemplo. Neutralidade é facilmente entendida quando tratamos de telecomunicações, mas não é esse o caso quando falamos de neutralidade na internet, onde há inúmeras camadas e contextos em que neutralidade é algo a ser mantido. Olhe o que se passa, por exemplo, na TV a cabo por assinatura. Se amanhã aparecer um novo canal que eu não assino, eu posso nem saber que ele surgiu, mesmo que eventualmente fosse um canal com conteúdo que me interessa. Na internet surgiu há pouco tempo, por exemplo, o Twitter. Todos puderam ter contato com esse novo serviço e adotá-lo ou não. Não há assinatura de serviços na internet – acessa-se tudo o que nela existe. Ao contrário do mundo da TV a cabo, que é um “jardim murado”. Esse não é o modelo que gostaríamos para a internet, por isso lutamos pela sua neutralidade: a rede tem de estar aberta para qualquer inovação e serviço e eles devem estar disponíveis para todos os usuários. A experiência de cada um de nós na internet tem que ser sempre total. Ninguém pode dizer que uma pessoa só pode ver vídeos do YouTube, ou só ver correio eletrônico na rede. Um “jardim murado” limita a navegação no máximo ao já existente: se aparecer algo novo, os usuários podem nem ficar sabendo. E isso é quebra da neutralidade. Em resumo, é preciso pensar em neutralidade como algo qualitativo. Não podemos ter distinção entre conteúdos, entre serviços. Quantitativamente, se eu quero mais banda, tenho que pagar mais por ela. Se eu quero 10 megabits por segundo, isso é mais caro do que um megabit. Mas, com qualquer banda de acesso, 10 ou um, deve-se ver uma internet completa, sem bloqueios ou “muros”.
E o marco civil da internet no Brasil que foi aprovado?
O conceito e a constatação da necessidade de marco civil para a internet no Brasil começaram a partir da discussão e aprovação do decálogo do CGI. O marco civil foi objeto de longa discussão, com diversas audiências públicas e mais de 2 mil contribuições de indivíduos até se chegar ao seu formato final. Foi um projeto de lei criado e discutido com muita interação e, fundamentalmente, com a busca de um consenso. O Alessandro Molon [PT-RJ], deputado federal relator do projeto, trabalhou muito para que o marco civil chegasse à sua aprovação e em todas as fases sempre batalhou para manter de pé os três pilares fundamentais do marco, baseados no decálogo do CGI: neutralidade, privacidade do usuário e responsabilização adequada da cadeia de valor.
O que é responsabilização adequada da cadeia de valor?
Quando se busca um responsável por um abuso cometido na rede, há sempre uma tendência de pegar o caminho mais fácil ou mais visível. Por exemplo, digamos que há um vídeo problemático no YouTube – e isso ocorreu, por exemplo, com um vídeo na praia de uma artista, a Daniella Cicarelli, há uns sete anos. Alguém se sentiu ofendido pelo vídeo e entrou na Justiça pela sua remoção. Não entro no mérito do vídeo em questão, se é bom ou ruim, mas não parece razoável tirar todo o serviço de vídeos [YouTube] do ar por causa desse vídeo específico, mas foi o que um juíz à época decidiu. Daí sai o vídeo da Cicarelli, mas sai uma enorme quantidade de outros vídeos também, que nada têm a ver com o eventual abuso em questão. De quem é a culpa no caso desse vídeo da Cicarelli? Não parece ser do provedor de vídeos [YouTube], mas sim da pessoa que fez o vídeo. Se é para responsabilizar alguém, onere-se quem gerou o abuso, e não quem está no meio do caminho. O mensageiro não tem culpa da mensagem. Se eu receber uma carta que me ofenda, não vou responsabilizar o carteiro. Pode-se até pedir para o YouTube tirar esse vídeo específico do ar, porque a Justiça o considerou inadequado e, se for viável tecnicamente, o provedor tem que o remover obedecendo à decisão judicial. Mas, se o provedor for automaticamente responsável pelo que lá está hospedado, podemos chegar a uma situação onde, se há uma página cujo conteúdo desagrada a alguém, e se esse alguém responsabilizá-lo, ao ser notificado da reclamação, esse provedor certamente vai retirar do ar o que está sendo reclamado, por medo de ser processado. Mesmo que o conteúdo da página não seja irregular. Com isso cria-se um ambiente de provável autocensura. Então é preciso que se responsabilize o verdadeiro autor, evitando-se o crescimento do fantasma da autocensura.
Qual o papel da Icann [Internet Corporation for Assigned Names and Numbers]? Esse órgão é ligado ao governo norte-americano?
A Icann é uma instituição sem fins lucrativos, sediada na Califórnia, que tem um conselho formado por 16 pessoas de todos os lugares do mundo, mas não tem a ver com tráfego na internet. A constituição do conselho da Icann é multissetorial, da mesma forma que a do CGI. Três brasileiros já fizeram parte do Conselho da Icann: Ivan Moura Campos, Vanda Scartezini e eu, que lá estive por cinco anos, eleito pela ccNSO [Country Code Names Supporting Organization], organização ligada aos domínios de código dos países. Tem também alguns pontos fracos. O defeito, por exemplo, de não ser legalmente internacional ao estar sob a lei da Califórnia. Se algum juiz de lá decidir alguma coisa estranha baseado em lei local, isso pode afetar a internet. O problema da Icann é que ela cuida de algo bastante limitado, mas importante, que é a raiz da lista telefônica responsável por traduzir um nome de domínio para um número IP. Tudo que termina em .br, por exemplo, tem que ser convertido para um número. Mas alguém precisa ser o cabeça da lista e dizer como se chega ao .br para que, depois, o responsável pelo .br, no caso o NIC.br, finalizar a tradução de, por exemplo, usp.br, ou fapesp.br. Assim, da raiz dessa “árvore” de tradução de nomes para números é a Icann que cuida. Além disso, a Icann tem outra tarefa crítica, que é distribuir números IP [Internet Protocol] para os órgãos regionais RIRs [Regional Internet Registries], que os distribuem para as instituições e usuários finais. Aqui no Brasil, desde 1994, nós recebemos do Lacnic e distribuímos números para o país, autonomamente.
E essa questão de que todo o tráfego da internet passa pelos Estados Unidos?
Bem, isso depende mais da geografia e do projeto global de engenharia nas telecomunicações. Não da Icann, que, como disse, trabalha com nomes e números. Tráfego tem a ver com a localização das fibras ópticas submarinas, das grandes centrais de comutação de dados. As fibras brasileiras, por exemplo, aportam em sua grande maioria nos Estados Unidos e dali saem outras para a Europa, Ásia e África. É o resultado de modelagem da engenharia de telecomunicações, não da internet, que apenas trafega no interior desses cabos. Com isso, os EUA acabam sendo topologicamente um centro de tráfego muito importante e, se usarem isso para espionar o tráfego, têm facilidades especiais por concentrarem a passagem de boa parte dele.
As pessoas fazem muito essa confusão?
Sim, mas a confusão também pode ser proposital, porque tem interesses envolvidos. Existem pontos privilegiados na rede, onde uma monitoração pegaria quase tudo que passa. É como colocar câmeras e sensores no metrô da praça da Sé: todo mundo baldeia ali. Se monitorarmos aquela estação toda, pegaremos boa parte do tráfego total que passa no metrô. Claro que o monitoramento ilegal em telecomunicações e internet é uma ação deplorável e todo mundo devia ser contra, mas isso não é culpa da internet em si, que paga o pato. O que seria culpa direta da internet? Vazar o correio eletrônico, que estava armazenado em algum lugar, é um típico caso ligado diretamente à internet. Mas os casos delatados pelo Snowden [Edward Snowden, ex-analista da Agência de Segurança dos Estados Unidos que revelou casos de espionagem do governo norte-americano] ou são vazamentos em cabos submarinos e, portanto, das telecomunicações, ou são grampos na telefonia celular, que também é telecomunicações. A internet entrou nisso de gaiata e está pagando por um problema que não é dela.
E do Julian Assange, do Wikileaks [site que revelou documentos secretos dos Estados Unidos]?
Também é vazamento, principalmente de telegramas e de cabos submarinos, ou seja, telecomunicações. Recolhe-se a informação de algum lugar e se dissemina na rede. Se houvesse vazamento no correio eletrônico, por exemplo, seria um problema da internet. Na China, há algum tempo, o governo queria descobrir quem era o dono de alguns blogs e algumas empresas, inclusive norte-americanas, colaboraram e o governo chegou até alguns ativistas. Isso certamente é uma culpa que pode ser atribuída à internet e, claramente, não é bom. Assim, não estou dizendo que a internet não tem culpa, tem sim, mas na proporção que lhe diz respeito.
Eu queria que o senhor falasse também sobre o Comitê Gestor da Internet. Foi um exemplo para outros países?
Sim. O Brasil foi muito feliz ao criar um órgão leve e multissetorial como o CGI. Continuamos recebendo elogios e citações em vários lugares. O presidente da Icann, quando vai a um país, sempre elogia o modelo brasileiro e sugere que o imitem. O CGI foi montado em 1995, teve algumas reformulações e atualmente está na configuração que foi criada por decreto em 2003.
Que reformulações?
O CGI teve pequenas alterações de composição, tanto em número de conselheiros como na representação. Na configuração atual que temos, a de 2003, são 21 membros, sendo nove do governo e 11 da sociedade civil, eleitos pelos respectivos segmentos. Os nove do governo não têm prazo de mandato porque ficam até outro representante ser eventualmente nomeado pelo ministro correspondente. Às vezes, o próprio ministro é o ocupante da cadeira no CGI. Os 11 eleitos diretamente por suas comunidades têm três anos de mandato. Existem três assentos para a academia, quatro para o terceiro setor, quatro para a área empresarial, assim distribuídos: um para os usuários empresariais, um para provedores de acesso e serviços, um para provedores de infraestrutura e um para o segmento empresarial de software e hardware. Importante observar que o governo não tem maioria no CGI. O coordenador do CGI, por razões históricas, desde sua criação é sempre o representante indicado pelo Ministério da Ciência, Tecnologia e Inovação. Em teoria teríamos uma situação em que 12 se sobrepõem aos nove numa votação, mas, em termos de internet e de consenso, isso não seria nada bom. Uma votação com maioria apertada nunca aconteceu, a votação é, sempre que possível, substituída por comum acordo. Raramente tivemos votações e, quando houve, foi 20 a um, 19 a dois, por exemplo. Outro aspecto importante é que o CGI não tem poder de imposição ou de regulação. Ele gera boas normas, toma medidas, gera estatísticas, dá cursos em áreas específicas e toma ações em favor da internet no país.
O TCP/IP continua forte mesmo com todas as mudanças. O senhor continua com essa visão?
Sim. Desde há muito tempo o TCP/IP, o Ethernet e outros padrões viraram a única opção prática, e não há discussão. Antes disso, nos anos 1980, havia uma multiplicidade de opções e era uma longa discussão a escolha do padrão a ser usado em cada caso. Sem falar que as opções eram ligadas aos fabricantes. Para redes, por exemplo, os usuários da IBM usavam SNA e Token Ring, os usuários da Digital, Decnet etc. Tudo isso se consolidou em torno de um único padrão dominante, que é ainda o TCP/IP. Essa discussão dos anos 1980 não acontece mais hoje, e ninguém mais fala em rede de longo alcance sem se referir automaticamente ao TCP/IP, e não tem rede local que não esteja usando Ethernet. Certamente o pessoal que pesquisa protocolos não vai deixar que continue tudo congelado por mais 30 anos. O TCP/IP mostrou uma flexibilidade magnífica, indo dos kilobytes até os gigabytes e terabytes, mostrou que ainda está avançando e tem vitalidade, mas não se pode garantir que continue a ser sempre assim. Padrões exaurem-se e são eventualmente trocados por outros ou recebem adições. Hoje existe uma forte pressão da área de pesquisa em redes para que se desenvolvam e testem alternativas, o que é sempre muito saudável. Se a alternativa for boa, ela acaba se sobrepondo ao que existe. Se não for, nada acontece. Hoje pragmaticamente não temos alternativa comercial viável ao TCP/IP, mas pode ser que daqui a cinco anos seja diferente. O pessoal começa a ficar inquieto e quer mudar tudo.
O senhor chefiava o CPD quando a FAPESP fez a primeira ligação de internet do Brasil. Como foi que o senhor entrou na Fundação?
Entrei na Poli em 1971 para fazer engenharia elétrica e antes do fim do ano passei a ser estagiário do Centro de Computação Eletrônica [CCE]. Na Poli, segui eletrônica e dentro dela fui para telecomunicações, mas sempre trabalhei na área digital. Em 1976, quando estava formado e o diretor do CCE era o professor Geraldo Lino de Campos, da Politécnica, a FAPESP tinha instalado experimentalmente um computador num sobradinho na rua Pirajussara, perto do Rei das Batidas, na entrada principal da USP. Era um Burroughs 1726, uma excelente máquina com um sistema operacional muito interessante. Lá o Geraldo desenvolveu o sistema Sirius, que controlaria auxílios e pesquisas da FAPESP. Eu era também do CCE e ele me chamou para participar do desenvolvimento do Sirius. Eu ia lá de noite. Passei a ir três vezes por semana na Pirajussara, ligava o Burroughs e tentava escrever alguma parte dos programas agregados ao Sirius. Nessa época eu conheci o professor Oscar Sala, físico e membro do Conselho Superior da FAPESP. Era ele que fazia o maior esforço para levar a informatização para a Fundação e tinha batalhado pelo B1726. A FAPESP nessa época ficava em um prédio na avenida Paulista e tinha todo seu controle de bolsas e auxílios ainda em fichas, de forma manual.
Como chegavam as informações na rua Pirajussara?
Chegavam em papel ou em fita. Não era on-line, estávamos ainda testando o sistema e recebíamos os conjuntos de dados da Paulista em papel. A FAPESP tinha acabado a construção do prédio atual na Lapa e ia montar um datacenter lá. Ainda lembro do dia em que mudamos os equipamentos da rua Pirajussara para a nova sede. O B1726 foi num caminhão, que era semiaberto. Fui junto e torcia para que não chovesse… Se chovesse, a gente arriscaria o B1726. Por sorte o dia estava ensolarado e tudo acabou bem: chegamos intactos à rua Pio XI. Com o computador instalado e funcionando na nova sede da Fundação, tudo deixava de ser experimental e era preciso uma equipe definitiva e estável na FAPESP. Eu, que estava ligado ao CCE, onde trabalhava normalmente, encerrei minha participação na iniciativa de informatização da Fundação. Quem assumiu o datacenter foi o Vitor Mammana de Barros, um engenheiro que tinha saído do CCE. Ele ficou na FAPESP como superintendente de informática, e eu tinha ainda algum contato para ajustar os programas que tínhamos feito ainda na Pirajussara. Em 1985, quando o CCE passava por algumas reformulações importantes gerando incerteza geral, aconteceu de o professor Alberto Carvalho e Silva, que era presidente do CTA [Conselho Técnico-Administrativo] da FAPESP, me chamar para conversar e disse que o Vitor estaria voltando para o CCE, que estava sendo reestruturado. Ele perguntou se eu não queria assumir o datacenter. Eu conhecia bem a máquina e o Sirius e isso me agradou muito. Por outro lado, tinha terminado o mestrado na Poli em 1982 e ir à FAPESP era uma ideia muito feliz, porque me permitiria continuar o doutorado além de trabalhar em algo em que eu já tinha me envolvido e de que gostava. Então, decidi que iria para a Fundação, juntar-me e cuidar da pequena equipe de três ou quatro analistas, aos quais competia tratar da informatização dos processos administrativos internos e das concessões de bolsas de auxílios para pesquisadores.
Nessa época a comunidade acadêmica começava a utilizar correio eletrônico.
Sim. O pessoal da física, por exemplo, que ia fazer mestrado e doutorado fora do país, queria preservar o contato com os pesquisadores no exterior. E lá fora já usavam extensamente correio eletrônico, que aqui não havia. Aí começamos a pesquisar como trazer isso pra cá. A necessidade era tanto de pesquisadores da USP como da Unicamp e Unesp. Assim, o professor Sala decidiu que, se tanta gente queria, o melhor era que a FAPESP assumisse o papel de fazer o serviço e que nós tentássemos dar uma solução. Pude chamar o Alberto Gomide, um profissional brilhante em software que já havia trabalhado no CCE e estava na Unesp. Além dele, mais alguns, entre eles lembro do Joseph Moussa, matemático, Vilson Sarto, engenheiro, e outros. O Sala tinha ótimos contatos com o Fermilab, um laboratório de física de alta energia em Batávia, perto de Chicago, nos Estados Unidos, e combinou com eles a nossa conexão, porque afinal precisávamos nos conectar em algum lugar. Em 1987, numa reunião que houve na Poli sobre redes acadêmicas, descobrimos que existiam também outras iniciativas no país tentando conexões com redes acadêmicas internacionais. Estavam nessa reunião o Michael Stanton, da PUC-Rio, o Tadao Takahashi, do CNPq e que lideraria a futura RNP, o Paulo Aguiar, da UFRJ. Nós já tínhamos alguma experiência com redes, porque havíamos montado a primeira fase da Rede USP, que era uma rede de terminais do computador Burroughs 6700 da universidade. Nessa reunião em 1987, vimos que tanto o LNCC como a FAPESP estavam tentando uma conexão internacional e que ambos tinham escolhido fazer conexão a uma rede bem simples, de que os pesquisadores gostavam muito à época: a Bitnet. Havia também a proposta de criação de uma rede nacional, que seria a futura RNP, mas ainda não se sabia quais seriam os padrões.
Eram tempos pré-PC?
Os PCs estavam começando a se espalhar, mas não estavam ligados em rede ampla, apenas em redes locais. Tínhamos alguns na FAPESP. Mas, voltando à Bitnet, o LNCC conectou-se a ela em setembro de 1988, um mês antes da conexão da Fundação. A conexão do LNCC era com a Universidade de Maryland, nos Estados Unidos, e a nossa foi com o Fermilab, mas sempre nos ajudávamos mutuamente. Quando fomos nos conectar, entramos com um pedido de ligação de cinco máquinas: USP, IPT, Unicamp, FAPESP e Unesp. Aí o pessoal da Bitnet, nos Estados Unidos, nos avisou que conectar cinco novos nós a essa rede, e todos do Brasil, configurava-se mais como uma conexão de uma nova sub-rede [ver mais em Pesquisa FAPESP nº 180]. Então era melhor, em vez de pedir uma conexão de cinco máquinas à Bitnet, criar uma sub-rede regional, como outras que estavam conectadas à rede. Para nome dessa sub-rede, o Gomide sugeriu São Paulo Academic Network, Span, mas esse nome já existia, era da Nasa, o Space Physics Analysis Network, e nós não sabíamos. Tivemos que mudar, trocamos a ordem das letras e ficou Ansp, que é Span invertido: an Academic Network at São Paulo.
Foi a primeira latino-americana?
Sim. À época da Bitnet não lembro de nenhuma outra. Tanto assim que toda a topologia Bitnet no Brasil passou a ser definida na FAPESP. O roteamento da Bitnet consistia apenas de uma tabela que descrevia quais computadores estavam ligados em que máquinas. Essa tabela era atualizada uma vez por mês, para incluir novas máquinas participantes ou alterar conexões. Roteamento bem pouco dinâmico. Para tornar os nomes um pouco mais padronizados sugerimos usar br na frente de todos eles. Ficamos com brfapesp, brusp, bruc, da Unicamp, bript etc. Eram nomes com um nível só, sem “sobrenome”, sem ponto isso ou ponto aquilo. O pessoal do Rio e de outros lugares passou também a usar o br na frente: brufmg, brufrgs, brufpe, começamos a difundir a rede desse jeito. Um e-mail levava horas, às vezes um dia, dependendo do tamanho da fila de despacho. Mas já era uma maravilha, porque, perto do correio normal, não tinha comparação – era muito melhor.
Como foi registrar o .br para o Brasil?
A rede acadêmica crescia com uma multiplicidade de protocolos e máquinas. Além da Bitnet, tínhamos a HEPNet [High Energy Physics Network], máquinas ligadas à UUCP, à Fidonet, à Renpac (x.25) da Embratel etc. E ficava difícil dar nome adequado às máquinas. Fomos atrás do “sobrenome” .br e pedimos o seu registro, que nos foi delegado em 18 de abril de 1989 pelo Jonathan Postel, administrador da Iana [Internet Assigned Numbers Authority] na Universidade do Sul da California, onde ficava a gestão da raiz da internet. Não houve nenhuma interação mais formal, exceto com o pessoal envolvido em redes acadêmicas. Nem intervenção de nenhum tipo do governo norte-americano, nem do governo brasileiro, ou do Itamaraty. Foi algo entre a comunidade dos que operavam redes acadêmicas, como era praxe na internet. O Postel achou que tínhamos maturidade suficiente para sermos o foco do .br e resolveu atender à comunidade local e, assim, delegou o .br aos cuidados da equipe que operava a rede na FAPESP.
E a internet no Brasil?
Bem, ganhamos o .br em 18 de abril de 1989, mas já perto do fim daquele ano ficou claro que a Bitnet começava a murchar, e que a internet, que tinha muito mais recursos, iria acabar prevalecendo e absorvendo a Bitnet e, provavelmente, as demais alternativas também. A Bitnet era boa para correio eletrônico, listas de discussão, mas era muito limitada na interação e no acesso remoto a computadores, além de estar crescendo bem menos. Nessa época pedimos ao pessoal do Fermi que, quando eles fossem para a internet, nos levassem junto.
Vocês perceberam a movimentação e sabiam da internet.
Em 1989 estava sendo criada uma espinha dorsal para o Departamento de Energia norte-americano, onde o Fermi estava ligado e essa espinha dorsal, a exemplo da NSFNET [da National Science Foundation], também usaria TCP/IP e faria parte da internet. O Fermi migraria assim que possível para esse recém-criado backbone [espinha dorsal], chamado de ESNet [Energy Sciences Network], o que aconteceu em 1990. Como estávamos ligados a eles, trabalhamos para implantar TCP/IP também na máquina da FAPESP e, em janeiro de 1991, conseguimos trocar os primeiros pacotes TCP/IP, usando um pacote de software que implementava o TCP/IP em máquinas DEC. A data precisa não lembro, mas era janeiro, férias coletivas na FAPESP. O Joseph Moussa [funcionário do CPD da FAPESP] estava lá e recebemos uma fita com o programa que fazia a implementação do TCP/IP. O Joseph instalou o programa, funcionou, e os primeiros pacotes da internet começaram a entrar na FAPESP.
Como foi o início?
A linha que sustentava a rede acadêmica brasileira via RNP era a da FAPESP, inicialmente uma pobre linha de 64 kilobits [Kbps], que depois passou a 128 Kbps, 256 Kbps e, finalmente, para dois Mbps. Eu era o coordenador de operações da RNP, que estavam centradas na FAPESP e, por uma questão de organização, pedíamos diretamente à Embratel as linhas que a RNP usaria em seu backbone. A RNP pagaria as linhas nacionais e equipamentos alocados nos pontos de presença nos estados e a Fundação, a conexão internacional. Todo o primeiro backbone da RNP foi projetado numa reunião na FAPESP com a participação do Michael Stanton, do Alexandre Grojsgold, do LNCC, e do Alberto Gomide, da FAPESP. Logo em seguida discutiu-se a estrutura de nomes a usar embaixo do .br. As universidades, por sua participação histórica no processo, poderiam ficar diretamente debaixo do .br, surgindo assim usp.br, unicamp.br, ufmg.br etc. Criamos o gov.br para o governo e, abaixo dele, as siglas dos estados, como sp.gov.br. O com.br foi definido para a futura área comercial, o org.br para o segmento de organizações sem fins de lucro, o net.br, para máquinas ligadas à infraestrutura da rede.
Era um espelho do que já existia nos Estados Unidos?
Sim. E parece-me que foi uma boa ideia. Porque .com, .net e .org já existiam nos Estados Unidos e nós achamos bom manter essas siglas com três letras, sob o .br. Os ingleses usam duas: ac.uk, por exemplo, para academic, ou co.uk, no commercial. O com.br valeu-se da expansão do .com internacional em termos de disseminação. Afinal, se trata de uma empresa brasileira, em vez de usar .com, que use .com.br. Na época não tinha quase nada comercial ainda, mas claro que era bom prever. Se àquela época quase tudo era acadêmico, a disseminação foi muito rápida e tudo mudou em poucos anos. Em dezembro de 1994, finalmente a Embratel se convenceu a dar acesso à internet para as pessoas físicas no Brasil. O TCP/IP era ainda um padrão não “de direito” e algo underground. Mas o mundo já estava mudando e adotando rapidamente o TCP/IP, até porque a família de protocolos proposta pela ITU era muito mais cara, bem complicada e voltada à bilhetagem, diferente do mundo internet. A Embratel, convencida pela RNP, montou no Rio o primeiro ponto de acesso à internet para os usuários brasileiros. Só que a abordagem dela foi muito centralizadora: criou um 0800 para as pessoas ligarem e todo mundo ia ter uma conta em @embratel.net.br. Quer dizer, a Embratel seria a única porta de acesso à internet pelos brasileiros. Houve uma reação imediata, porque o pessoal da rede acadêmica achava que estava errado a Embratel ser a “internet brasileira” e que isso seria muito limitante à expansão. Então foi feito um contato entre a RNP e o ministro das Telecomunicações da época, o Sergio Motta. Tadao Takahashi, Ivan Moura Campos e Carlos Afonso, do Ibase, convenceram o ministro de que o caminho a seguir era outro: montar um esquema hierárquico que desse riqueza à internet brasileira. No começo de 1995, o ministro Sergio Motta baixou uma portaria vedando a Embratel de fornecer a internet diretamente. A Embratel daria acesso às teles regionais [empresas de telefonia], que dariam acesso aos provedores, que levariam a internet ao usuário final. Surgiram provedores da área de conteúdo, Folha, Abril, Estadão, JB etc. Assim, apareceu material em português rapidamente. Diziam que brasileiro não ia querer saber de internet, porque o conteúdo dela era todo em inglês, mas isso foi facilmente desmentido. O Comitê Gestor entendeu que precisava consolidar a estrutura existente e delegou à equipe da FAPESP o registro de nomes e números. Depois, o CGI também decidiu que íamos começar a cobrar o registro de nomes de domínio, como aliás acabava de acontecer nos Estados Unidos, para que a atividade pudesse ser autossustentável. Até então a Fundação mantinha três ou quatro funcionários, além de suportar o pagamento das linhas internacionais. A decisão foi de cobrar o equivalente ao que se cobrava nos Estados Unidos: R$ 50 na inscrição e mais R$ 50 por ano. Para que esse recurso ficasse segregado, foi criado um processo dentro da FAPESP, o projeto de auxílio à pesquisa Comitê Gestor da Internet no Brasil. O CGI passou a ter recursos para aplicar em atividades de interesse da internet no país. Lembro da reunião do CGI na FAPESP, em 2000, quando o professor Landi [Francisco Landi, ex-diretor-presidente da FAPESP] comentou que o projeto do Comitê Gestor já tinha cinco anos e esse era o tempo máximo de duração dos projetos na FAPESP, e que não poderia abrigar mais o registro da internet brasileira. O CGI concordou que era hora de buscar uma solução própria e mudar. O registro brasileiro migrou em 2001 para um prédio na marginal Pinheiros e construiu um centro de processamento de dados lá.
E o Nic foi criado?
O CPD do CGI já estava montado quando, em 2002, o Ivan Moura Campos, que era o coordenador do CGI, concluiu que necessitávamos de uma pessoa jurídica para substituir a FAPESP tanto na eventual responsabilização pelas ações do registro brasileiro quanto no recolhimento e depósito das contribuições. Até então, todos os boletos saíam com o CNPJ da FAPESP, que acabava também envolvida nos processos judiciais referentes a conflitos no registro de nomes de domínio sob o .br. Isso era um incômodo adicional para a Fundação. Decidiu-se em 2002 que o CGI criaria uma ONG sem fins lucrativos, o Nic.br.
O senhor nasceu na Itália e se tornou brasileiro? Como foi?
Nasci na cidade de Trieste e minha família veio para o Brasil em 1954, quando eu tinha um ano de idade, e sou naturalizado brasileiro, mas eu não tinha nenhuma nacionalidade anterior. Não era italiano e virei brasileiro.
Como assim?
Eu fui apátrida até me naturalizar em 1976. Meu pai era grego, minha mãe é búlgara e meu irmão nasceu no Brasil. Nasci em 1953 e Trieste ainda era zona de ocupação aliada depois da Segunda guerra mundial, porque só no final daquele ano os norte-americanos saíram de algumas cidades-chave. Meus pais se naturalizaram brasileiros bem antes de mim. Quando estava no fim da Poli, acelerei o processo de naturalização porque tirar passaporte como apátrida é um inferno.
Vieram para São Paulo?
Viemos em 1954 e sempre moramos aqui. Minha raiz religiosa familiar é greco-ortodoxa e estudei num colégio de freiras católicas no Tatuapé, depois num colégio de padres espanhóis no ginásio e científico e, por fim, entrei na Poli.
E a vida acadêmica como professor?
Fiz mestrado e doutorado [Poli-USP] e até entrei como professor na Poli e dei aulas de rede de computadores por uns anos por lá. Foi na época da FAPESP ainda, quando se abriu um concurso. Entrei, dei aulas, mas, como eu não tinha tempo para pesquisar na Poli, achei melhor abandonar. Academicamente estou na PUC-SP desde que foi criado o curso de ciências da computação. Dei aulas para as turmas na graduação, sobre arquitetura de computadores e de redes. Também dou aulas no programa de pós-graduação em Tecnologia de Inteligência e Design Digital, um curso interdisciplinar bastante interessante que acabou de formar o primeiro doutor.