Imprimir PDF Republicar

Informática

Desafios para o futuro

IBM desenvolve chip que dá sobrevida ao silício e estuda técnicas que vãopermitir ao computador tomar decisões

Uma das gigantes do setor de informática, a IBM lançou recentemente um desafio à comunidade científica, inclusive a brasileira, e a seus concorrentes – ela quer desenvolver máquinas capazes de comportar-se como o sistema nervoso autônomo humano, que administra funções orgânicas básicas, como a respiração, a pressão arterial e os batimentos cardíacos, sem nenhuma intervenção da consciência. “Está na hora de projetar e construir sistemas computacionais capazes de se autogerir, ajustando-se a condições variáveis e mobilizando recursos para lidar de maneira mais eficiente com as cargas de trabalho que colocamos sobre eles”, escreveu Paul Horn, vice-presidente sênior da IBM Research, no manifesto da computação autônoma, que começou a ser divulgado nos Estados Unidos em outubro passado.

Ao mesmo tempo em que organiza os estudos para essa inovação, a empresa também se preocupa com problemas mais corriqueiros e concretos e prevê para o final deste ano o lançamento do chip mais rápido do mundo, cujo processador tem velocidade superior a 100 gigahertz (GHz). Hoje, a velocidade dos computadores de mesa está um pouco acima de 1 GHz. Em fase de protótipo, o chip fundamenta-se em nova abordagem para a tecnologia do silício-germânio (SiGe), que já havia resultado no lançamento de um processador no ano passado. A aplicação dessa nova tecnologia vai garantir sobrevida aos chips de silício, que, como anunciam os especialistas da área, estão chegando quase ao limite de sua utilização. As pesquisas para substituir o silício nas próximas décadas envolvem vários materiais, mas um dos mais cotados são os nanofios de ouro, como mostra a matéria de capa da revista Pesquisa FAPESP nº 72, de fevereiro deste ano.

“Até o surgimento do SiGe, eu imaginava que o silício estava com seus dias contados”, observa Fábio Gandour, gerente de Novas Tecnologias da IBM Brasil. “O aumento da velocidade dos processadores tornou os circuitos tão densos que sua temperatura estava próxima de atingir o ponto de fusão do material. A adição do germânio propicia o alinhamento dos átomos da estrutura do silício sem, com isso, prejudicar sua condutividade”, explica Gandour. Segundo ele, a combinação dos dois metais resulta em incremento de velocidade da ordem de 35%, com igual redução de calor. Com isso, também diminui o consumo de energia elétrica no sistema de refrigeração das máquinas. A IBM pesquisa a tecnologia SiGe desde 1989 e deu o nome de SiGe 8HP à sua mais recente evolução. Será uma evolução que certamente irá contribuir para o já tão esperado sistema nervoso autônomo dos computadores.

Mas até que ponto a computação autônoma vai conferir inteligência aos sistemas automatizados é uma questão cuja resposta depende, em grande parte, do significado que se estiver dando à palavra “inteligência”. Não se trata, a empresa frisa bem, de dar às máquinas a capacidade de pensar. Afinal, o sistema nervoso autônomo (SNA), ou vegetativo, não é privilégio humano – o que nem de longe significa que seu funcionamento seja simples. No homem, o SNA antecipa situações perigosas ou marcadas pela urgência antes que a consciência acuse sua emergência efetiva.

A IBM reorganizou toda a sua divisão de pesquisa, com 3.200 profissionais e orçamento anual de cerca de US$ 5 bilhões, em torno da meta de dar autonomia aos sistemas de informação e está apoiando projetos acadêmicos que possam contribuir para a sua consecução. “Temos interesse em conversar com as universidades e os institutos brasileiros que estejam trabalhando no desenvolvimento de hardware, software e tecnologias de rede compatíveis com o conceito de computação autônoma”, anuncia Gandour, que apresentou o modelo para um público constituído, em sua maioria, por clientes da companhia, no Infra-estrutura @ Business, seminário realizado em São Paulo em fevereiro. O Brasil foi o terceiro país a tomar contato com o assunto, que, antes, havia sido abordado em apenas três eventos: dois nos Estados Unidos e um na Alemanha.

Parceiros famosos
“Sabemos que a tarefa de desenvolver a computação autônoma será árdua e não temos sequer a pretensão de realizá-la sozinhos”, afirma Gandour. A IBM, que já conquistou a adesão da Microsoft e da Sun à iniciativa, está trabalhando com diversas universidades, em uma série de áreas afins ao conceito. A Universidade da Califórnia em Berkeley, por exemplo, contribui para o projeto OceanStore, concebido de acordo com os princípios da computação introspectiva, que pretende dar aos sistemas de informação capacidade de adaptação e continuidade operacional em caso de falhas em servidores ou travamento de sistemas. A empresa participa, em associação com a Universidade de Stanford, de um projeto de computação orientado para a recuperação, que busca torná-los aptos a recuperar-se quando há problemas.

A Universidade de Bolonha, na Itália, desenvolve estudos sobre sistemas peer-to-peer (igual a igual), que se caracterizam pelo controle descentralizado e por ambientes operacionais de grande escala e altamente dinâmicos que podem ser vistos como os sistemas complexos que, tipicamente, são objeto de estudo das Ciências Biológicas e das Ciências Sociais. No Brasil, a IBM, que já há algum tempo suspendeu doações de equipamentos para universidades, vem se reaproximando do meio acadêmico desde a instalação do departamento de novas tecnologias, em outubro de 2000.

Atualmente, a empresa mantém acordo com a Pontifícia Universidade Católica do Rio de Janeiro (PUC-RJ) para o intercâmbio de informações sobre novas tecnologias, organizando reuniões semanais com estudantes de graduação e pós-graduação da escola. “Pretendemos formar novas alianças em São Paulo e em outros Estados”, revela Gandour. O conceito de computação autônoma começou a ser esboçado a partir dos resultados de uma pesquisa realizada por encomenda da IBM em 1999. O estudo voltou-se para a demanda de mão-de-obra especializada em Tecnologia da Informação (TI) e chegou a conclusões alarmantes. “Descobrimos que, se a complexidade dos sistemas continuar crescendo ao ritmo dos últimos 20 anos, já na próxima década a demanda por especialistas pode se aproximar de 200 milhões de pessoas, e isso é quase o total da população norte-americana”, diz Gandour.

Autogerir o trabalho
Do ponto de vista das demandas que se colocam para os sistemas autônomos, o primeiro pressuposto é a máxima socrática: conhece-te a ti mesmo. Para se autogerir, reagindo ao aumento – ou à diminuição – das cargas de trabalho, e, em última instância, evitar e até reparar falhas localizadas. O segundo ponto crítico é a habilidade que os sistemas devem ter para se configurar e reconfigurar, adaptando-se a mudanças ambientais. Para isso, pode ser preciso utilizar o que se poderia chamar de clonagem de software, com a criação de múltiplas imagens de programas, como um sistema operacional, por exemplo, e a realocação de recursos de memória, armazenamento e banda de comunicações, conforme as necessidades que se apresentarem.

Uma das características importantes dos sistemas autônomos inclui a capacidade de prever e corrigir falhas, recorrendo a elementos redundantes ou subutilizados para assegurar a manutenção da operação e identificando a causa primária do problema. “No início, os sistemas autônomos se auto-repararão seguindo regras criadas por especialistas”, prevê Horn. “Contudo, à medida que conseguirmos embutir-lhes mais inteligência, eles começarão a descobrir, por si mesmos, novas regras que colaborarão para o uso de recursos redundantes ou adicionais para se recuperar e cumprir seu principal objetivo: o de atingir as metas especificadas pelos usuários.”

Republicar