[post_title] => Mais saúde pública [post_excerpt] => FMUSP incentiva a formação do médico de família e busca aprimorar o SUS [post_status] => publish [comment_status] => closed [ping_status] => closed [post_password] => [post_name] => mais-saude-publica [to_ping] => [pinged] => [post_modified] => 2017-01-27 17:02:40 [post_modified_gmt] => 2017-01-27 19:02:40 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisaclone.fapesp.br/2009/10/01/mais-saude-publica/ [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [3] => stdClass Object ( [ID] => 30036 [post_author] => 17 [post_date] => 2009-10-01 00:00:00 [post_date_gmt] => 2009-10-01 00:00:00 [post_content] => [caption id="attachment_30579" align="alignright" width="290"] Lígia Fedeli, chefe de uma equipe de exames: amostras de sangue e de urina preservadas em nitrogênio líquido[/caption] Todo dia, desde agosto do ano passado, uma equipe de quase 100 especialistas atende de 15 a 20 pessoas saudáveis que comparecem voluntariamente ao Hospital Universitário da Universidade de São Paulo (HU-USP) e passam por uma série de exames ao longo de quatro horas. O ritmo de trabalho deve continuar até março do próximo ano, quando essa equipe espera completar os 5 mil exames da cota paulista de um dos maiores levantamentos epidemiológicos já feitos no Brasil, com foco em doenças cardiovasculares e diabetes. Chamado Estudo Longitudinal da Saúde do Adulto (Elsa), o levantamento mobiliza outras cinco equipes, no Rio de Janeiro, em Minas Gerais, na Bahia, no Rio Grande do Sul e no Espírito Santo, com cotas menores que a de São Paulo, mas igualmente avançadas nos exames das 1 mil ou 2 mil pessoas que têm de fazer. A equipe do Elsa pretende avaliar e acompanhar durante 20 anos o estado de saúde de um total de 15 mil homens e mulheres com 35 a 74 anos de idade. Os participantes passam por uma entrevista sobre condições gerais de saúde e depois por 35 exames clínicos e laboratoriais. De acordo com o planejado, no ano seguinte serão procurados para que digam se foram internados ou passaram por alguma cirurgia e a cada três anos farão os mesmos exames de sangue, urina e funções cardíacas. “Não queremos saber apenas quem tem doenças cardíacas num momento específico, mas como e por que essas doenças surgem, qual o peso efetivo dos fatores de risco e como a alimentação interfere para agravar ou proteger”, diz Paulo Lotufo, professor da Faculdade de Medicina da USP e coordenador do Elsa em São Paulo. O Elsa é chamado de levantamento longitudinal, um tipo de estudo trabalhoso, porque implica o acompanhamento de um grupo grande de pessoas por muitos anos. A maioria dos levantamentos epidemiológicos feitos no país são transversais: consistem de um retrato, por vezes amplo, de um problema de saúde em um momento único, sem comparação com outros momentos. Por essa razão é que os coor­denadores do projeto concordaram, já nas primeiras reu­niões, que as pessoas a serem examinadas e acompanhadas seriam os próprios funcionários das instituições responsáveis pela realização da pesquisa. “Se por um lado sacrificamos a representatividade do estudo, por outro asseguramos a continuidade, já que funcionários públicos são estáveis”, diz Lotufo. Isabela Benseñor, professora da Faculdade de Medicina da USP e vice-coordenadora do Elsa em São Paulo, acrescenta: “Daqui a 20 anos alguém vai ligar para a casa dos participantes e eles provavelmente estarão na mesma casa. Se não estiverem, não será difícil descobrir onde estão morando. Em alguns estudos epidemiológicos às vezes as próprias casas, e não só os moradores, desaparecem”. Até 21 de setembro, trabalhando do mesmo modo para que os resultados possam depois ser comparados, 300 pesquisadores e assistentes haviam atendido 6.680 pessoas, fazendo exames e coletando informações sobre o estado geral de saúde. Nos próximos anos, à medida que os resultados dos exames forem reunidos e analisados, esse trabalho poderá mostrar o que favorece ou detém o surgimento de muitas doenças crônicas, principalmente as cardiovasculares e diabetes, e sugerir formas de prevenção mais adequadas ao país. Outro objetivo é verificar se os valores numéricos adotados para definir se uma pessoa está com pressão arterial realmente alta ou sob o risco de infarto estão mesmo adequados à população brasileira. É possível que não estejam. "Os protocolos de prevenção de doen­ças se baseiam em estudos realizados em países com hábitos alimentares e relações sociais diferentes", diz Maria del Carmen Bisi Molina, professora da Universidade Federal do Espírito Santo (Ufes) e vice-coordenadora do estudo no estado. "Reproduzimos valores basea­dos em populações diferentes da nossa, pois não temos indicadores que possam refletir a nossa própria situação", reforça Sandhi Maria Barreto, professora da Faculdade de Medicina da Universidade Federal de Minas Gerais (UFMG) e coordenadora estadual do Elsa. O peso da dieta Há razões para suspeitar também que as doenças cardiovasculares evoluem no Brasil de modo diferente do que se dá em outros países. Uma equipe da Ufes comparou as taxas de mortalidade por infarto no Brasil e em outros países e concluiu que os brasileiros morrem de quatro a cinco anos antes dos moradores dos Estados Unidos ou da Europa. "Ou os fatores de risco como o tabagismo e a hipertensão começam mais cedo ou, quando aparecem, se manifestam de maneira mais agressiva", cogita José Geraldo Mill, professor da Ufes e coordenador do estudo no Espírito Santo. O peso dos chamados modificadores de efeitos, como a dieta e as relações sociais, capazes de ampliar ou amenizar os fatores de risco de infarto ou de acidente vascular cerebral, ainda é pouco conhecido no Brasil. "Será que o colesterol elevado tem o mesmo efeito que em outros paí­ses? Só um projeto de longa duração pode responder", diz Mill. [caption id="attachment_30580" align="alignleft" width="290"] O Elsa é hoje uma linha de produção de exames que correm entre seis estados[/caption] Este mês uma equipe de entrevistadores vai a campo para perguntar a 300 participantes do estudo (50 de cada um dos seis estados) o que comeram e beberam em um dia específico. Repetirão as perguntas em março e agosto do ano que vem, com o propósito de avaliar o consumo calórico e de nutrientes. "Esperamos entender melhor, analisando os hábitos alimentares, como as doenças aparecem ou como a saúde se mantém", diz Maria Molina, responsável pelo levantamento dos hábitos alimentares. Desde já há sinais de que a alimentação no Brasil afora não é das mais saudáveis - e está favorecendo o surgimento de doenças cardíacas e diabetes. Em 1999 e 2000, como parte de um levantamento internacional sobre doença cardiovascular, a equipe do Espírito Santo analisou o estado de saúde e os hábitos de 1.661 moradores de Vitória entre 25 e 64 anos. O sobrepeso era de 52% e o consumo de sal, o dobro do recomendado. Moradores de outros estados podem estar também ganhando peso ou lentamente caminhando rumo a um infarto. A prevalência de sobrepeso ou obesidade na população brasileira passou de 16% para 41% entre os homens e de 29% para 40% entre as mulheres nos últimos 30 anos, segundo uma síntese do Elsa publicada na Revista de Saúde Pública. As doenças cardiovasculares constituem a principal causa de morte, com 32% do total em 2003, e de internações hospitalares, respondendo por 22% do total de R$ 6 bilhões gastos com internações em 2005 no Brasil. "Estamos coletando dados para as futuras gerações de pesquisadores e despertando vocação dos entrevistadores para a pesquisa científica", diz Dora Chor, professora da Escola Nacional de Saúde Pública (ENSP) da Fundação Oswaldo Cruz e coordenadora do estudo no Rio de Janeiro. Informações mais consistentes sobre como as doenças surgem e o que poderia ser feito para evitar que se agravem devem começar a aparecer apenas daqui a três anos, mas outros ganhos são imediatos. Um deles nasceu da necessidade de administrar muitos exames continuamente: depois de um teste preliminar com 94 pessoas, a equipe capixaba mostrou que a urina pode ser coletada 12 horas antes, em vez das habituais 24, simplificando a vida de quem terá de comparecer na manhã seguinte, em jejum, para outros exames. "Para a avalia­ção de função renal, taxa de filtração e excreção de sódio e de creatinina, o exame de 12 horas apresenta praticamente os mesmos resultados que o de 24 horas", diz Mill. "Queremos agora que os nefrologistas vejam, opinem, tentem repetir e adotem ou não." Os manuais da equipe do Elsa, mostrando como organizar um projeto desse tipo, preparar e manter equipes e fazer exames, também podem ser compartilhados por outros grupos. [caption id="attachment_30581" align="alignright" width="290"] O Elsa é hoje uma linha de produção de exames que correm entre seis estados[/caption] Sem atrasos As conversas do grupo tomaram a forma de um plano de trabalho, aprovado em 2005 pelo Ministério da Saúde e Ministério de Ciên­cia e Tecnologia, que liberaram R$ 22 milhões para essa pesquisa. "Formamos um consórcio de pessoas e de instituições, com um comitê diretivo, com todos os participantes, que tomam as decisões em conjunto", conta Isabela. Agora, tão importante quanto a capacidade de produzir informação com qualidade, para que os dados colhidos em Porto Alegre possam ser comparados com os de Salvador, é a habilidade de manter o ritmo de trabalho: até que comece a gerar informações epidemiológicas, o Elsa é uma rigorosa linha de produção contínua de exames e de informações. “Não posso acumular exames”, diz Lígia Fedeli, chefe da equipe dos exames de sangue e urina. “Todo o material do dia tem de estar identificado e organizado até as 19 horas do mesmo dia.” Lígia e seus 10 assistentes distribuem o sangue de cada uma das 15 a 20 pessoas atendidas por dia em sete tubos plásticos flexíveis chamados palhetas, cada uma com uma etiqueta de código de barras. A logística impressiona. Uma vez por mês, Lígia recebe mil exames feitos nos outros estados, produz 20 mil palhetas e as envia para os tanques de nitrogênio líquido. Uma vez por mês os tubos são descongelados e o sangue examinado nos laboratórios do hospital da USP. Esse material poderá também mostrar quem, como e por que teve doen­ças mentais como demência ou Alzheimer, já que uma parte dos questionários procura avaliar eventuais perdas de memória. O HU armazena também as amostras de urina, que passam pelos mesmos cuidados e procedimentos, e os exames de ultrassonografia do diâmetro da artéria carótida e da artéria do fígado, usados para avaliar problemas cardíacos. Por sua vez, a equipe de Minas recebe 55 eletrocardiogramas feitos no mesmo dia nos outros cinco centros e a de Porto Alegre um número equivalente de exames da retina, que ajudam a identificar lesões produzidas no olho pelo diabetes. “Se tivéssemos de parar o trabalho agora, este já seria o levantamento epidemiológico com maior número de participantes adultos já feito no Brasil”, diz Lotufo. Um estudo sobre transtornos psiquiátricos na Região Metropolitana de São Paulo chegou a 2007 com 5.037 entrevistas realizadas. Um levantamento mais parecido com o Elsa consistiu na avaliação de 15 mil crianças nascidas em 1982, 1993 e 2005 em Pelotas, Rio Grande do Sul. Empreitadas de fôlego como essa costumam ir além do previsto. Um dos levantamentos pioneiros sobre doenças cardíacas, realizado em 1948 com 5.209 homens e mulheres de Framingham, cidade próxima a Boston, nos Estados Unidos, revelou o que hoje parece óbvio: a associação do hábito de fumar, até então ligado apenas a câncer de pulmão, com o maior risco de infarto. Essa relação se tornou clara após alguns anos de acompanhamento da saúde dos participantes do estudo. “Foi uma surpresa, porque nessa época fumar aparecia com frequência em filmes como algo que aliviava o estresse e, portanto, poderia ser benéfico para o coração”, diz Mill. Mas não é sempre que conclusões de estudos como esse se convertem rapidamente em políticas públicas. “Há muito tempo sabemos que refrigerante e salgadinhos fritos não fazem bem para crianças, mas só agora uma lei nacional proíbe a venda desses alimentos na escola”, observa Maria Molina. Por enquanto os avanços têm sido graduais e contínuos. “Algo difícil, que estamos conseguindo”, diz Lotufo, “é convencer os outros que um hospital universitário tem de fazer pesquisa original e relevante, com espaço e equipe próprios, e não só tirar informações dos prontuá­rios dos pacientes”. [post_title] => A origem das doenças [post_excerpt] => Seis estados fazem levantamento sobre doenças cardíacas e diabetes [post_status] => publish [comment_status] => closed [ping_status] => closed [post_password] => [post_name] => a-origem-das-doencas [to_ping] => [pinged] => [post_modified] => 2017-01-27 17:04:04 [post_modified_gmt] => 2017-01-27 19:04:04 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisaclone.fapesp.br/2009/10/01/a-origem-das-doencas/ [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) ) [ciencia] => Array ( [0] => stdClass Object ( [ID] => 30037 [post_author] => 13 [post_date] => 2009-10-01 00:00:00 [post_date_gmt] => 2009-10-01 00:00:00 [post_content] => [caption id="attachment_30603" align="alignright" width="290"] Oscilador paramétrico óptico: sistema do IF-USP foi usado para produzir o emaranhamento[/caption] Um esboço da circuitaria interna que poderá ocupar o lugar dos chips de silício e se tornar o coração de um computador quântico ganhou contornos mais concretos graças a um experimento inédito realizado no Instituto de Física da Universidade de São Paulo (IF-USP). Uma equipe formada apenas por brasileiros e coor­denada pelos físicos Paulo Nussenz­veig e Marcelo Martinelli, do IF-USP, montou um sistema em que foi possível criar – e até certo ponto controlar – o fenômeno do emaranhamento quântico entre três feixes de luz de diferentes comprimentos de onda. Um feixe era verde e estava na porção visível do espectro e os outros dois se situavam no campo do infravermelho próximo, que não pode ser visto a olho nu. Até então o máximo que outros grupos de cientistas haviam conseguido era entrelaçar quanticamente dois feixes de luz de cores distintas ou vários da mesma frequência. “O emaranhamento de feixes de três cores pode ser útil para a construção de computadores quânticos no futuro”, comenta Nussenzveig. “Em tese, poderíamos montar uma rede com componentes quânticos operando em diferentes frequências.” O trabalho foi  publicado no dia 17 do mês passado na Science Express, versão on-line  da revista científica americana Science. Além de demonstrar a viabilidade do emaranhamento tricolor, o estudo pioneiro dos brasileiros trouxe uma segunda boa notícia. Os físicos constataram que esse tipo de entrelaçamento pode originar um sistema óptico relativamente robusto, que não se esvai tão facilmente quanto outros modelos mais simples de emaranhamento. Afinal, ninguém quer ter um PC quântico que seja instável por natureza. Alterando levemente a intensidade dos feixes usados no experimento, conseguiram modular o grau de entrelaçamento entre os fótons (partículas de luz) do sistema. Observaram ainda que o fenômeno descrito tecnicamente como a morte súbita do emaranhamento, relatado até agora somente em sistemas mais elementares, também ocorria quando diminuíam a intensidade dos feixes de luz abaixo de um determinado nível. A energia do feixe de laser verde usado para iniciar o experimento na USP é pequena, mas não desprezível: da ordem de 50 miliwatts, dez vezes maior do que a empregada em algumas ponteiras a laser. Além de Nussenzveig e Martinelli, o time de pesquisadores que fez o trabalho inclui os alunos de pós--graduação Antônio Sales Coelho e Felippe A. Silva Barbosa, todos do IF-USP, e os físicos Katiúscia Cassemiro e Alessandro Villar, hoje no Instituto Max Planck para Ciência da Luz, na Alemanha. O estudo que redundou no emaranhamento tricolor faz parte das pesquisas tocadas pelo Instituto Nacional de Ciência e Tecnologia em Informação Quântica (INCT-IQ), coor­denado por Amir Ordacgi Caldeira, da Universidade Estadual de Campinas (Unicamp). O instituto é uma iniciativa do Ministério da Ciência e Tecnologia (MCT), por meio do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), em parceria com a FAPESP. Como todo fenômeno quântico, o emaranhamento não pode ser explicado pelas leis da física clássica. Está inserido num mundo com regras próprias, estranhas à compreensão da realidade macroscópica e que flertam com o que os leigos chamam de telepatia. Previsto na década de 1930 e comprovado experimentalmente décadas mais tarde,  o emaranhamento quântico imprime uma assinatura típica num sistema. Se duas ou mais partículas – átomos, elétrons ou fótons, como no experimento da USP – estão conectadas de uma maneira tão íntima que as modificações sofridas por algumas delas também se refletem nas propriedades das outras, independentemente de estarem separadas por nanômetros de distância ou pelo oceano Atlântico, elas formam um sistema com as características do emaranhamento quântico. Ao prever a possibilidade do entrelaçamento, Albert Einstein disse que o misterioso fenômeno era dotado de uma “ação fantasmagórica a distância”. Do ponto de vista aplicado, essas correlações entre as partículas emaranhadas podem ser exploradas de modo a criar os chamados bits quânticos ou qubits, que, teoricamente, poderiam expandir enormemente a capacidade dos computadores de armazenar, processar, criptografar e transmitir informação. O problema é que o entrelaçamento é um fenômeno frágil, cujos efeitos podem desaparecer devido a ínfimas interferências do ambiente. Os cientistas costumam optar pelos fótons para construir sistemas emaranhados, em vez de átomos ou outras partículas elementares, porque a luz pode ser transmitida por fibras ópticas ou até pelo ar sem perder os efeitos do entrelaçamento. [caption id="attachment_30604" align="alignleft" width="290"] Cristal (em azul) amarra quanticamente os três feixes de luz de cores diferentes[/caption] Para criar o sistema descrito na Science, os pesquisadores montaram um sistema denominado oscilador paramétrico óptico (OPO). Trata-se de um dispositivo que possibilita bombear com um feixe de luz (laser) verde um sistema composto de um cristal especial situado entre dois espelhos. O emaranhamento surge quando o feixe de luz verde atravessa o cristal. Nesse momento há a conversão de fótons verdes em pares de fótons no infraverme­lho, de duas frequências distintas (ver ilustra­­ção na página 50). “É o cristal que ‘amarra’ os três feixes de luz, que cria o emaranhamento”, explica Martinelli. Por fim, os novos feixes de luz produzidos, mais o feixe restante de luz verde, são redirecionados para subsistemas de espelhos utilizados para medir suas propriedades. “No nosso experimento há tantos fótons emaranhados que não é possível contá-los”, diz Nussenzveig. Há quatro anos o grupo da USP tinha obtido sucesso em criar o entrelaçamento quântico com apenas dois feixes de luz. No ano seguinte os físicos publicaram um artigo prevendo a possibilidade de emaranhar uma trinca de feixes, feito que agora demonstraram experimentalmente ser possível. Mas não foi um processo fácil. Quando iniciaram as tentativas de criar o emaranhamento tricolor, depararam com um problema frequente na ciência: os resultados práticos não batiam com as projeções teóricas. Existia uma fonte de contaminação que dificultava o registro do emaranhamento. “Havia um ruído da luz que era intrínseco ao sistema, de natureza quântica”, diz Martinelli. “Mas havia outro tipo de ruído, ruim, que atrapalhava as medições.” Eles precisavam entender a origem da interferência e eliminá-la do sistema. Nos experimentos com o oscilador paramétrico óptico os físicos usualmente trabalham à temperatura ambiente. No entanto, a estratégia não funcionava na busca pelo entrelaçamento de três feixes diferentes de luz. Os pesquisadores descobriram que, nesse caso, era preciso resfriar o cristal abaixo de uma temperatura para retirar o ruído indesejável do sistema. O calor do ambiente, acima dos 20°C, fazia o cristal vibrar e produzia as interferências. A saída foi manter o cristal a -23°C e, assim, foram criadas as condições para que o entrelaçamento fosse medido de forma satisfatória. É interessante notar que a pesquisa brasileira tem dado contribuições importantes ao estudo do emaranhamento quântico. Além da equipe de Nussenzveig e Martinelli, outros grupos de pesquisa publicaram artigos em periódicos de renome internacional. Em abril de 2006 o grupo de Luiz Davidovich, da Universidade Federal do Rio de Janeiro (UFRJ), realizou a primeira medição direta do emaranhamento quântico de partículas e publicou o feito na revista científica britânica Nature. Em abril de 2007 a mesma equipe mostrou nas páginas da Science como ocorria o fenômeno da morte súbita do emaranhamento. “Há vários grupos nacionais, teóricos e experimentais, realizando trabalhos na fronteira do conhecimento”, afirma Davidovich. “Eles apresentam uma característica interessante: estão distribuídos em vários estados do Brasil e interagem entre si.” O projeto Instituto Nacional de Ciência e Tecnologia em Informação Quântica (INCT-IQ) (nº 08/57856-6); Modalidade Programa Institutos Nacionais de Ciência e Tecnologia do MCT/CNPq/FAPESP; Coordena­dor Amir Ordacgi Caldeira – Unicamp; Investimento R$ 1,5 milhão (FAPESP) - para grupos de pesquisa de São Paulo Artigo científico COELHO, A.S. et alThree-color entanglementScience Express. Publicado on-line em 17 set. 2009. [post_title] => Cores emaranhadas [post_excerpt] => Pesquisadores obtém entrelaçamento quântico entre três feixes de luz [post_status] => publish [comment_status] => closed [ping_status] => closed [post_password] => [post_name] => cores-emaranhadas [to_ping] => [pinged] => [post_modified] => 2017-01-27 17:05:13 [post_modified_gmt] => 2017-01-27 19:05:13 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisaclone.fapesp.br/2009/10/01/cores-emaranhadas/ [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [1] => stdClass Object ( [ID] => 30038 [post_author] => 16 [post_date] => 2009-10-01 00:00:00 [post_date_gmt] => 2009-10-01 00:00:00 [post_content] => Uma descoberta recente da equipe de Luis Gustavo Marcassa arrefeceu o ânimo dos pesquisadores empenhados no desenvolvimento teórico e experimental de um computador quântico produzido com átomos mantidos em condições muito especiais. Esse equipamento se vale das propriedades das partículas para realizar cálculos e, acreditam os físicos, poderá no futuro substituir os computadores atuais com vantagens em determinadas situações. Em experimentos feitos no Instituto de Física da Universidade de São Paulo (USP) em São Carlos, o grupo de Marcassa identificou uma variação sutil no comportamento do sistema considerado ideal para funcionar como processador de um computador quântico. Apesar de pequena, essa oscilação seria suficiente para comprometer o desempenho desses computadores do futuro. Os físicos de São Carlos, no entanto, não se acomodaram depois de encontrar o problema e já começam a propor formas de resolvê-lo. Num teste aparentemente simples, Marcassa, Valter Aragão do Nascimento e Lucas Caliri aprisionaram com lasers e campos magnéticos uma nuvem de apenas 10 mil átomos do elemento químico rubídio, mantidos a temperaturas baixíssimas – cerca de 10 microKelvin ou 10 milionésimos de grau acima do zero absoluto (-273,15 graus Celsius), quando as partículas apresentam o mais baixo nível de energia possível. Em seguida, iluminaram os átomos com um laser infravermelho e outro azul, excitando-os. Esse procedimento transfere energia para o mais externo de seus 37 elétrons – as partículas fundamentais mais leves conhecidas, de carga negativa, que orbitam o núcleo, formado por partículas de carga positiva (prótons) e neutra (nêutrons). Energizado, o elétron mais externo do rubídio salta para uma região periférica bem mais distante do núcleo. O afastamento desse elétron faz o átomo aumentar de tamanho cerca de 10 mil vezes e medir quase 1 milésimo de milímetro (micrômetro), tornando-se quase do tamanho de uma bactéria. O novo átomo, inflado como um balão de festa, recebe o nome de átomo de Rydberg – homenagem ao físico sueco que o previu, Johannes Rydberg – e passa a se comportar de maneira muito especial. Ele apresenta maior sensibilidade a campos elétricos e a campos magnéticos, o que permite interagir com átomos distantes. “Esses átomos interagem a distâncias muito grandes [alguns micrômetros] e torna-se possível distinguir cada um deles e selecionar aquele em que se deseja codificar determinada informação”, explica Marcassa. Devidamente manipulados, conjuntos de dois átomos de Rydberg podem compor a unidade de informação do computador quântico – o bit quântico ou qubit. Essa seletividade, segundo Marcassa, é vantajosa porque permitiria trabalhar ao mesmo tempo com informações diferentes codificadas nas duplas de átomos, conferindo grande poder de processamento ao computador. O problema é que no mundo real nem tudo funciona como prevê a teo­ria. Ao iluminar com laser os 10 mil átomos, os físicos de São Carlos notaram que uma pequena parcela - de 2% a 3% - atingia um nível mais energético ou menos energético do que o desejado. "É preciso tomar cuidado caso se queira construir um computador quântico usando átomos de Rydberg", afirma Marcassa, que descreveu esses resultados em artigo publicado em maio na Physical Review Letters. Segundo o físico, os poucos átomos em níveis de energia diferentes do desejado já seriam suficientes para atrapalhar o funcionamento de um computador quântico. "Para fazer várias operações é preciso ter controle exato do nível de energia dos átomos", explica o pesquisador de São Carlos. Felizmente, esse problema parece ter solução. Adicionando um campo elétrico extra à armadilha, o grupo da USP conseguiu reduzir a proporção de átomos que não atinge o nível de energia desejado. Mas os físicos ainda não estão plenamente satisfeitos. "Estamos procurando outras saídas", diz Marcassa. Uma delas, ainda em fase de desenvolvimento, exige a aplicação de micro-ondas numa frequência quatro vezes maior que a usada nos fornos de micro-ondas domésticos. O projeto Gases bosônicos e fermiônicos em armadilhas ópticas (nº 07/03758-0); Modalidade Linha Regular de Auxílio a Projeto de Pesquisa; Coordenador Luis Gustavo Marcassa -  IFSC-USP; Investimento R$ 404.233,90 (FAPESP) Artículo científico NASCIMENTO, V.A. et al. Electric field effects in the excitation of cold Rydberg-atom pairs. Physical Review Letters. v. 102, p. 213.201-1- 213.201-4. 29 may. 2009. [post_title] => Partículas rebeldes [post_excerpt] => Comportamento de átomos compromete funcionamento de computador quântico [post_status] => publish [comment_status] => closed [ping_status] => closed [post_password] => [post_name] => particulas-rebeldes [to_ping] => [pinged] => [post_modified] => 2017-01-27 17:06:00 [post_modified_gmt] => 2017-01-27 19:06:00 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisaclone.fapesp.br/2009/10/01/particulas-rebeldes/ [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [2] => stdClass Object ( [ID] => 30039 [post_author] => 16 [post_date] => 2009-10-01 00:00:00 [post_date_gmt] => 2009-10-01 00:00:00 [post_content] => [caption id="attachment_30647" align="alignright" width="290"] Novo mundo: concepção artística do planeta Corot-7b, em vermelho, e sua estrela[/caption] Os astrônomos não têm mais dúvida. Existem outros planetas com superfície rochosa e dimensões muito próximas às da Terra fora do Sistema Solar. As evidências mais robustas confirmando essa antiga suspeita foram divulgadas no dia 16 de setembro por uma equipe internacional de pesquisadores da qual participa o astrônomo brasileiro Sylvio Ferraz Mello, da Universidade de São Paulo (USP). Sob a coordenação do astrônomo suíço Didier Queloz, do Observatório de Genebra, o grupo determinou a massa de um planeta que acompanha uma das estrelas da constelação do Unicórnio, na vizinhança do Sistema Solar. Distante 500 anos-luz, esse planeta é o menor já encontrado fora do Sistema Solar. Seu diâmetro é 1,8 vez maior que o da Terra e ele tem cinco vezes mais massa, o que o coloca na categoria denominada pelos astrônomos de superterras. Descoberto em fevereiro deste ano pelo Corot, satélite franco-europeu-brasileiro lançado em 2006 com o objetivo de identificar planetas ao redor de outras estrelas (exoplanetas) e determinar seus tamanhos, o novo planeta recebeu o nome de Corot-7b, descrito em artigo a ser publicado na Astronomy and Astrophysics. Sua massa foi calculada a partir de medições feitas por um equipamento de altíssima resolução acoplado a um dos telescópios do Observatório Europeu do Sul (ESO) instalados no deserto de Atacama, no norte do Chile. Conhecendo a massa e o diâmetro do Corot-7b, os astrônomos constataram que sua densidade é muito próxima à da Terra: 5,5 gramas por centímetro cúbico – o que significa que um cubo com 1 centímetro de lado com a mesma composição da Terra conteria uma massa de 5,5 gramas. Com base nessas informações, os astrônomos concluíram que o planeta da constelação do Unicórnio só pode ser rochoso e apresentar superfície sólida, assim como Mercúrio, Vênus, Terra e Marte, os mais próximos do Sol. Planetas do porte de Júpiter, que tem 11 vezes o diâmetro terrestre e é o maior do Sistema Solar, em geral são gasosos. “É a primeira vez que se determina a densidade de um planeta de fora do Sistema Solar”, comemora o astrofísico Eduardo Janot Pacheco, do Instituto de Astronomia, Geofísica e Ciências Atmosféricas (IAG) da USP, coordenador da participação brasileira no Corot. Em abril deste ano a equipe do astrônomo suíço Michel Mayor, que identificou o primeiro exoplaneta em 1995 e já descobriu outros 150, havia anunciado a observação do planeta Gliese 581e, com o dobro da massa terrestre. Mas há incertezas sobre sua estrutura. “Não se conhecem o diâmetro nem a densidade do Gliese 581e, que pode ter superfície líquida”, diz Pacheco. O interesse em detectar planetas rochosos ao redor de outros sóis se deve à expectativa de que possam abrigar vida. “Estamos procurando planetas em que a vida possa se desenvolver”, conta o coordenador do grupo brasileiro. Apesar de sua estrutura rochosa, o Corot-7b deve ser muito inóspito e distinto da Terra. Ele se encontra bem mais próximo a sua estrela do que Mercúrio, o primeiro planeta de nosso sistema, está do Sol. Além de provavelmente ser mais quente e seco, apresenta temperaturas extremas. Como gira ao redor de si à mesma velocidade em que completa uma volta em torno de seu sol, o Corot-7b expõe à luz apenas uma de suas faces, na qual a temperatura chega próximo aos 1.000 graus Celsius. Já na face escura as temperaturas são sempre negativas. “De modo geral, esse planeta não é propício à vida”, diz Pacheco. “Mas ele deve apresentar regiões com temperaturas intermediárias que poderiam permitir a sobrevivência de microrganismos extremófilos, adaptados a condições em que outros não sobrevivem”, aposta o pesquisador do IAG, que acredita que haja vida em outros pontos do Universo – não necessariamente igual às formas conhecidas. “Há bilhões e bilhões de estrelas. Seria muito pretensioso achar que só existe vida aqui”, afirma. Desde que Michel Mayor anunciou há 14 anos a descoberta do primeiro planeta extrassolar, orbitando a estrela Pégaso 51, outros 373 já foram identificados. Quase todos são gigantes gasosos, parecidos com Júpiter e Urano. Além do Corot-7b, há outros candidatos a planetas rochosos – entre eles, o Corot-7c, com massa oito vezes superior à da Terra e companheiro do 7b. Uma das razões por que quase não se conhecem planetas rochosos é que é difícil observá-los. Mesmo o satélite Corot, desenvolvido para detectar a sutil redução de luminosidade (eclipse) que os planetas causam ao passar à frente de suas estrelas, depende da sorte. É que em apenas 1% dos casos a órbita do planeta se encontra em um plano favorável à observação. Em pouco mais de dois anos de atividade, o Corot analisou a luz de 60 mil estrelas e identificou ao menos outros cinco exoplanetas, além do Corot-7b e do 7c. “Há ainda uma dezena de candidatos sob análise”, comentou no início de setembro durante visita a São Paulo Michel Auvergne, astrônomo do Observatório de Paris e pesquisador principal do projeto Corot. Ele veio discutir os dados da missão com a equipe brasileira e trouxe uma boa notícia: o satélite, que seria desativado no início de 2010, permanecerá ativo mais três anos. E funcionando melhor. “Aprimoramos o programa que elimina os ruídos dos dados coletados”, afirma o engenheiro Vanderlei Cunha Parro, do Instituto Mauá de Tecnologia (IMT). “Isso aumentará as chances de encontrar outros planetas.” Os projetos 1. Centro de análise temporal Corot (Cat-Corot) (nº 06/50341-5); Modalidade Linha Regular de Auxílio a Projeto de Pesquisa; Coordenador Eduardo Janot Pacheco – IAG-USP; Investimento R$ 37.608,43 (FAPESP) 2. Estudo para a caracterização da função de espalhamento do sistema óptico do canal de aquisição de imagens destinado à investigação de exoplanetas do satélite Corot (nº 06/03008-9); Modalidade Linha Regular de Auxílio a Projeto de Pesquisa; Coordenador Vanderlei Cunha Parro - IMT; Investimento R$ 30.799,15 (FAPESP) Artigo científico QUELOZ, D. et al. The CoRoT-7 planetary system: two orbiting super-Earths. Astronomy and Astrophysics. 2009. no prelo. [post_title] => Terra inóspita [post_excerpt] => Planeta fora do Sistema Solar tem superfície rochosa e temperaturas extremas [post_status] => publish [comment_status] => closed [ping_status] => closed [post_password] => [post_name] => terra-inospita [to_ping] => [pinged] => [post_modified] => 2017-01-27 17:07:49 [post_modified_gmt] => 2017-01-27 19:07:49 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisaclone.fapesp.br/2009/10/01/terra-inospita/ [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [3] => stdClass Object ( [ID] => 30040 [post_author] => 16 [post_date] => 2009-10-01 00:00:00 [post_date_gmt] => 2009-10-01 00:00:00 [post_content] => Um simples pedaço de linha enovelado no canto da sala salta aos olhos, faz retesar os músculos e bater forte o coração de quem sofre de aracnofobia, o medo excessivo de aranhas. Tão intensa quanto irrefreável, essa sensação invade o corpo sempre que se nota no ambiente algum ser ou objeto que lembre, mesmo muito remotamente, o aracnídeo de pernas longas e comportamento em geral reservado. Não fosse o terror despertado, seria uma reação natural ante uma circunstância que põe em risco a sobrevivência e prepara o corpo para lutar ou fugir. Uma descoberta recente do neurocientista brasileiro Luiz Pessoa ajuda a compreender por que nos casos de fobia ou de outros transtornos associados a altos níveis de ansiedade, a exemplo da ansiedade generalizada ou do estresse pós-traumático, objetos a que deveríamos ser indiferentes funcionam como uma espécie de ímã do qual os olhos não conseguem desgrudar. Nessas situações uma região cerebral profunda em formato de amêndoa – a amígdala, responsável pelo processamento de emoções como o medo ou a aversão – se torna mais ativa e aumenta o nível de funcionamento do córtex visual, onde são decodificadas as imagens. Ou seja, não é a linha enovelada que atrai a atenção da pessoa com aracnofobia, mas a pessoa que se torna mais atenta à procura de qualquer coisa semelhante a uma aranha. “Esse efeito aparentemente desejável [estar atento ao perigo] pode na realidade se transformar em uma tormenta, porque ocupa boa parte do processamento cerebral e impede o indivíduo de focar a atenção em outras atividades”, explica Pessoa, chefe do Laboratório de Cognição e Emoção da Universidade de Indiana, nos Estados Unidos. Pessoa e dois pesquisadores de seu laboratório, Seung-Lark Lim e Srikanth Padmala, identificaram esse papel regulador da amígdala em experimentos feitos com 30 indivíduos saudáveis. Em uma série de testes, eles apresentaram a cada participante uma sequência ultrarrápida de fotos, composta por três tipos de imagem: quadrados pretos e brancos embaralhados; um rosto; e uma paisagem (casa ou edifício). Cada bateria durava dois segundos, nos quais as imagens apareciam em ordem variável e por apenas 100 milissegundos. Ao final de cada sequência, quem assistia à exposição tinha de identificar de quem era o rosto (Andy, Bill ou Chad) e qual o tipo de edificação apresentado. Um detalhe: a imagem de uma das três faces sempre aparecia entre 200 e 500 milissegundos antes da foto da paisagem. Cegueira momentânea Pessoa e sua equipe em Indiana já sabiam, a partir de trabalhos feitos por outros grupos, que a tendência dos participantes desse tipo de teste é quase sempre identificar a primeira imagem-alvo – no caso, o rosto – e não registrar a segunda. Jane Raymond, Kimron Shapiro e Karen Arnell, pesquisadores canadenses que descreveram esse fenômeno em 1992, deram-lhe o nome de attentional blink, ou piscada atencional, uma espécie de desatenção ou cegueira momentânea – a pessoa vê a imagem, mas não a registra, como se tivesse piscado. Os pesquisadores de Indiana resolveram então sofisticar o teste, a fim de investigar como a emoção influencia o comportamento. Em vez de só apresentar a sequência de imagens, enquanto registravam a atividade cerebral com um aparelho de ressonância nuclear magnética, incluíram uma nova fase: numa etapa inicial de sensibilização, os participantes recebiam um choque elétrico bastante leve, cuja intensidade era controlada pelo próprio voluntário, sempre que aparecia a foto de uma casa ou de um edifício (a segunda imagem--alvo). “Por ser aversivo, o choque adiciona um componente emocional ao experimento”, explica Pessoa. Os participantes que receberam a descarga elétrica associada à imagem da casa durante a sensibilização identificaram-na em 72% das vezes em que foi mostrada, ao passo que viram o edifício em apenas 62% dos casos. Quem levou choque ao ver o edifício passou a identificá-lo com mais frequência do que notava a casa, segundo artigo publicado on-line em setembro nos Proceedings of the National Academy of Sciences(PNAS). Já se sabia que as pessoas têm melhor memória e mais percepção visual de imagens que carregam algum conteúdo emocional. Faltava, porém, descobrir por que isso acontecia. Acompanhando o funcionamento cerebral durante os testes, a equipe de Pessoa verificou que o estímulo emocional aumentou o nível de atividade da amígdala – em especial da amígdala direita – e do córtex visual. “Houve um aumento sutil no funcionamento da amígdala e do córtex visual”, explica o neurocientista brasileiro, que vive há 10 anos nos Estados Unidos. “Mesmo pequeno, esse aumento já foi mensurável e intenso o suficiente para modificar o comportamento.” Indícios de que o processamento de imagens com conteúdo emocional passa primeiro pela amígdala levaram o grupo de Pessoa a concluir que a ativação mais intensa dessa região cerebral em forma de amêndoa amplifica o funcionamento do córtex visual. O córtex visual mais ativo, por sua vez, favorece a identificação de sinais visuais de perigo no ambiente. Mantido ao longo da evolução de diversas espécies – dos seres humanos inclusive –, esse circuito neuronal deve ter favorecido a sobrevivência em situações adversas, comenta o pesquisador brasileiro. Em alguns casos, porém, esse sistema que funciona como protetor pode se voltar contra quem deveria proteger. “Como a amígdala está mais ativa em pessoas com problemas de ansiedade, como a fobia de aranhas”, comenta Pessoa, “é provável que elas identifiquem mais facilmente no ambiente imagens que passariam despercebidas para outros”. Artigo científico LIM, S.L. et al. Segregating the significant from the mundane on a moment-to-moment basis via direct and indirect amygdala contributions. PNAS. no prelo. [post_title] => Efeitos da aversão [post_excerpt] => Situação que causa repulsa aumenta atenção e percepção visual [post_status] => publish [comment_status] => closed [ping_status] => closed [post_password] => [post_name] => efeitos-da-aversao [to_ping] => [pinged] => [post_modified] => 2017-01-27 17:10:30 [post_modified_gmt] => 2017-01-27 19:10:30 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisaclone.fapesp.br/2009/10/01/efeitos-da-aversao/ [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [4] => stdClass Object ( [ID] => 30041 [post_author] => 17 [post_date] => 2009-10-01 00:00:00 [post_date_gmt] => 2009-10-01 00:00:00 [post_content] => [caption id="attachment_30673" align="alignright" width="290"] Paepalanthus globulifer. uma das muitas plantas raras na serra do Cipó, em Minas Gerais[/caption] Em janeiro do ano passado Alessandro Rapini com seu grupo da Universidade Estadual de Feira de Santana (UEFS), na Bahia, reencontrou no município mineiro de Santana do Riacho, na serra do Cipó, alguns exemplares de uma erva de 15 centímetros de altura com flores rosadas crescendo em meio ao capim. Era a Hemipogon abietoides, que não era vista desde 1825, quando os naturalistas da expedição Langsdorff passaram por uma estrada para Diamantina atualmente fechada para veículos. Nessa mesma região os botânicos viram também uma espécie de arbusto de flores creme, a Minaria hemipogonoides, considerada extinta havia alguns anos. As duas espécies redescobertas integram o mais amplo levantamento sobre plantas praticamente desconhecidas do país: o livro Plantas raras do Brasil (editores Conservação Internacional e Universidade Estadual de Feira de Santana, 496 páginas.). A obra reuniu 170 especialistas de 55 instituições de pesquisa nacionais e estrangeiras e apresenta 2.291 espécies confinadas a áreas de no máximo 10 mil quilômetros quadrados (o equivalente a um quadrado de 100 quilômetros de lado). A maioria, porém, está limitada a áreas ainda menores e algumas só são encontradas em um único lugar: uma erva da mesma família dos bambus, com 30 centímetros de altura, a Melica riograndensis, cresce apenas no município gaúcho de Uruguaiana, enquanto a Cissus pinnatifolia, trepadeira de flores vermelhas das matas próximas ao mar, em Santo Amaro das Brotas, Sergipe. Muitas são bem peculiares, como um cacto com flor cuja haste é azul e uma flor que parece algo entre uma rosa e uma orquídea. Algumas regiões, por reunirem condições específicas de clima e solo, são ricas em espécies raras. É o caso dos arredores do município de Datas, no planalto de Diamantina, ao norte de Belo Horizonte, com quase 90 espécies, e de toda a serra do Cipó, também em Minas Gerais, com quase o dobro. Minas é o estado com maior número de espécies de plantas raras: 550. Seguem Bahia com 484, Rio de Janeiro com 250, Goiás (incluindo Distrito Federal) com 202, Amazonas com 164, Espírito Santo com 135 e São Paulo com 123. As plantas raras são mais comuns em lugares altos, como os campos rupestres – vegetação aberta que cresce sobre terrenos rochosos ou pedregosos – da Cadeia do Espinhaço, em Minas e Bahia, e da Chapada dos Veadeiros, em Goiás. Estão também nas florestas úmidas da Amazônia Central e da Mata Atlântica, do sul da Bahia até o Paraná, passando pelas serras do Espírito Santo, Rio de Janeiro e São Paulo. [caption id="attachment_30674" align="alignleft" width="290"] Calliandra hygrophila. com flores de novembro a fevereiro em Mucugê e Ibiquara, na Bahia[/caption] Entre canaviais A abundância de plantas raras nessas regiões tem outra explicação. Além de contarem com solo e clima adequados, essas áreas têm sido intensamente estudadas por botânicos por apresentarem uma riqueza natural notável ou estarem próximas de cidades. As matas da serra de Petrópolis, por exemplo, visitadas por naturalistas desde os tempos do imperador Pedro II, guardam pelo menos 52 espécies que provavelmente só vivem por lá. Algumas áreas são refúgios naturais para espécies raras, como os campos de Altinópolis, cercados por canaviais e indústrias da região de Ribeirão Preto, em São Paulo. Lá está a Xyris longifolia, redescoberta após mais de um século sem coletas. Mesmo em lugares acessíveis essas plantas podem passar despercebidas. “Só especialistas as reconhecem como raras, e nem sempre na hora”, diz Rapini, um dos editores do livro, coordenado por Ana Maria Giulietti, ex-pró-reitora de Pesquisa da UEFS, e por José Maria Cardoso da Silva, vice-presidente de ciência da Conservação Internacional do Brasil. Como raridade implica fragilidade, muitas espécies listadas no livro estão ameaçadas de extinção e algumas delas talvez já tenham desaparecido. “Será que a Anathallis guarujaensis ainda existe?”, questiona Fábio de Barros, pesquisador do Instituto de Botânica de São Paulo. Essa espécie – uma orquídea de 3 centímetros de altura e flores de 6 milímetros – foi vista pela última vez em 1938 nas matas hoje urbanizadas da ilha de Santo Amaro, no município de Guarujá, por Frederico Carlos Hoehne, fundador do Jardim Botânico de São Paulo. As orquídeas formam um grupo (ou família) com cerca de 2.600 espécies brasileiras, das quais 1.800 exclusivas de ambientes específicos, principalmente a Mata Atlântica. Barros participou do grupo de especialistas que identificou 72 espécies de orquídeas raras no país. A maioria é pequena, mas há também encorpadas, como a Adamantinia miltonioides, com flores róseas, reconhecida apenas em 2004, a 1.300 metros de altitude, no município baiano de Mucugê. A Grobya cipoensis, raridade da serra do Cipó, com 20 centímetros de altura e flores amarelas de 5 centímetros, foi identificada há cinco anos,  vivendo sobre uma enorme canela-de-ema, a Vellozia gigantea, em uma região da serra do Cipó. “Chegamos ao século XXI descrevendo novas espécies”, diz Barros. “É um sinal de que ainda temos muito a conhecer sobre nossa flora, mesmo de grupos bastante estudados como o das orquídeas.” [caption id="attachment_30675" align="alignright" width="290"] Lavoisiera macrocarpa, arbusto de flores vistosas em Congonhas do Norte e Santana do Riacho, Minas Gerais[/caption] Linhagens raras Rapini começou a acreditar que as plantas raras possam estar geneticamente relacionadas entre si depois de identificar grupos de espécies - e não apenas espécies isoladas - raras. "São grupos que evoluíram confinados a áreas relativamente reduzidas e, ao se diversificarem, geraram espécies raras e proximamente relacionadas entre si." Das cerca de 20 espécies de Minaria, um gênero da família das Apocináceas que está sendo estudada geneticamente pela equipe da UEFS, mais da metade ocorre em áreas isoladas da Cadeia do Espinhaço. Em outra família, a das Melastomatáceas, a maioria das 35 espécies do gênero Marcetia é exclusiva da Chapada Diamantina. No entanto, nem sempre é possível estabelecer as afinidades evolutivas. Em duas espécies de Paepalanthus que vivem apenas um ano as regiões do genoma (material genético) comumente utilizadas nesse tipo de estudo foram insuficientes para definir relações de parentesco. Os botânicos trabalham para saber exatamente por que regiões como os campos rupestres da Cadeia do Espinhaço concentram mais espécies raras que outras. Em busca de explicações, Luciano Paganucci de Queiroz, professor da UEFS e um dos coordenadores do livro, e pesquisadores de outras três universidades da Bahia compararam geneticamente oito grupos de plantas com várias espécies exclusivas da Cadeia do Espinhaço, incluindo orquí­deas, cactos e árvores. Os resultados preliminares indicam que as linhagens mais antigas começaram a surgir a partir de 20 milhões de anos atrás - as linhagens mais recentes há 4,5 milhões de anos, quando grupos especializados de gramíneas também começaram a se diversificar no Cerrado. Os botânicos concluíram que a descontinuidade das serras e o mosaico de ambientes devem ter propiciado o isolamento geográfico de populações de plantas, favorecendo a diversificação de alguns grupos. Por iniciativa de Cardoso, da Conservação Internacional do Brasil, que em 1998 publicou um estudo exploratório sobre conservação de aves e plantas no Cerrado, e sob liderança científica de Ana Maria Giulietti, os botânicos formaram uma força-tarefa e concentraram os esforços para encontrar espécies de distribuição geográfica restrita, com base em levantamentos de campo já feitos. Depois de todas as espécies terem sido listadas, uma parte da equipe aplicou as coordenadas geográficas em que cada espécie foi encontrada sobre um mapa de microbacias hidrográficas. Emergiram daí 752 áreas-chave para biodiversidade, assim chamadas por apresentarem pelo menos uma planta rara. Somadas, essas áreas chegam a 140 milhões de hectares (1 hectare são 10 mil metros quadrados). A menor delas ocupa 327 hectares na ilha das Almas, no município de Parati, Rio de Janeiro, refúgio exclusivo da Aureliana darcyi, arbusto de até 3 metros de altura que cresce próximo ao mar, e a maior tem 2,5 milhões de hectares, no rio Iça, um dos afluentes do Solimões, no estado do Amazonas. Cardoso acredi­ta que as 752 áreas deveriam ser incluídas nos planos de conservação ambiental do governo federal. Outras instâncias e grupos também podem agir. "Em muitos casos", diz ele, "as prefeituras é que têm de tomar a iniciativa, porque muitas espécies estão restritas a municípios". O levantamento e os mapas podem servir de argumento para evitar a construção de condomínios e outras formas de ocupação nas áreas com plantas raras. "A ocorrência de plantas raras é um dos itens que justificam o embargo de um pedido de desmatamento", diz Barros. "Conseguimos mobilizar a comunidade científica", conta Queiroz. Agora todo o livro, com as descrições resumidas das plantas, agrupadas em 108 famílias, e os mapas com as áreas-chave para conservação da biodiversidade, encontra-se no site www.plantasraras.org.br. Lá está também um espaço para envio de mensagens que tem atraído interessados. "Já apareceram mais botânicos querendo contribuir com informações sobre outros grupos de plantas raras", conta Queiroz. [post_title] => Lá no alto da serra [post_excerpt] => Plantas raras crescem isoladas principalmente em terras altas [post_status] => publish [comment_status] => closed [ping_status] => closed [post_password] => [post_name] => la-no-alto-da-serra [to_ping] => [pinged] => [post_modified] => 2017-01-27 17:16:31 [post_modified_gmt] => 2017-01-27 19:16:31 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisaclone.fapesp.br/2009/10/01/la-no-alto-da-serra/ [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) ) [tecnologia] => Array ( [0] => stdClass Object ( [ID] => 30042 [post_author] => 22 [post_date] => 2009-10-01 10:00:00 [post_date_gmt] => 2009-10-01 13:00:00 [post_content] => [caption id="attachment_31861" align="alignright" width="272"] Joias multicoloridas produzidas pela Jackie-O[/caption] À primeira vista, as peças de ouro colorido lembram pedras de cores surpreendentes, que podem mudar de tonalidade conforme a luz incide sobre elas. Azuis em vários matizes, púrpura furta-cor e outras cores são obtidas em um inovador processo que, em vez da fundição usada na joalheria tradicional, utiliza uma técnica de moagem em alta frequência para produzir pós utilizados na fabricação de joias coloridas. Para conseguir o amarelo ou vermelho, o ouro é misturado com prata ou cobre, ligas bastante utilizadas tradicionalmente. Já para a obtenção de cores diferenciadas como púrpura, o ouro recebe a mistura de alumínio. Com a adição de ferro é obtida a cor azul, com cromo o verde-oliva e com cobalto o preto. “A escolha do metal depende da cor desejada”, explica o engenheiro metalurgista Edval Gonçalves de Araújo, da empresa Jackie-O Joias, que desde 2003 pesquisa a técnica para a obtenção do ouro colorido, inicialmente em parceria com o também engenheiro metalurgista Ricardo Mendes Leal Neto e a física Eneida da Graça Guilherme. “A alteração de algumas condições de processamento permite, por exemplo, obter um verde intenso também com o cobalto”, explica Leal Neto, pesquisador do Instituto de Pesquisas Energéticas e Nucleares (Ipen) e sócio cotista da empresa Alluvium. A mistura do ouro com outros metais é necessária porque o ouro puro, de 24 quilates, é extremamente flexível. “É um metal tão maleável que se apenas 30 gramas de ouro fossem esticados resultariam em um fio superfino com 100 quilômetros de extensão”, diz Araújo. O de 18 quilates, usado na fabricação de joias, é composto por 75% de ouro e 25% de outros metais. A mesma proporção é usada na nova técnica que dispensa a metalurgia de fundição para a obtenção das ligas de ouro. “Os metais que compõem os 25% restantes, em vez de cobre, prata, paládio e platina usados na ourivesaria convencional, foram substituídos por cromo, ferro, cobalto, entre outros”, relata Araújo. A primeira etapa do processo é a formação da liga por meio da moagem de alta energia. Dentro de um moinho vibratório, pequenas esferas de aço colidem e fornecem energia à mistura de pós para formar a liga no estado sólido. No final de algumas horas cada partícula de pó apresenta a mesma composição química de todo o material. Esse pó que sai do moinho vai para uma prensa onde é compactado a uma pressão de 2 a 7 toneladas por centímetro quadrado, onde são feitas peças no seu formato final ou chapas de 20 por 25 milímetros e 1,3 milímetro de espessura. As peças são aquecidas em forno abaixo da faixa de fusão, etapa denominada sinterização ou queima. No caso das chapas, após a sinterização, elas podem ser laminadas, chegando a até 0,1 milímetro de espessura, e trabalhadas com processos convencionais de ourivesaria para formar as joias. Quando as peças saem do forno elas são brancas. A cor da liga só aparece quando o material recebe tratamentos térmicos em temperaturas que variam de 100 a 700 graus Celsius (ºC), formando óxidos superficiais nas diferentes cores. A mesma peça pode ter uma cor homogênea ou tons dégradés. O processo permite mudar a cor da joia de acordo com o gosto do cliente. Uma aliança branca de noivado, por exemplo, pode ser transformada em dourada no casamento. Ou ainda nas cores púrpura, azul-claro, azul-escuro, cinza e preto. Para que as joias coloridas tenham proteção contra o desgaste natural dos óxidos metálicos, uma resina especial, que funciona como uma espécie de selante, foi desenvolvida para recobrir as peças prontas. Uma das vantagens em utilizar a técnica de moagem de alta energia na fabricação de joias é a obtenção de ligas que, pelas técnicas tradicionais de fundição, necessitariam de temperaturas de fusão completamente diferentes. Se no processo de fundição convencional fossem utilizados metais como ferro, cobalto e níquel, a temperatura de fusão seria superior a 1.200 ºC. Já com o pó da liga produzido por moagem a temperatura de sinterização fica em torno de 1.000 ºC. Com a moagem de alta energia técnica, também conhecida como mechanical alloying, é possível produzir várias ligas metálicas. A técnica faz parte de uma área conhecida como metalurgia do pó e é usada, por exemplo, na fabricação de peças de carros. Para essa finalidade, os pós de aço, ferro e bronze são compactados em uma prensa hidráulica de alta tonelagem para moldar a peça, que segue então para um forno com atmosfera controlada para sinterização do material. A partir daí são feitas as operações de acabamento e a peça está pronta. “O processo não é novo, mas ele ainda não tinha sido utilizado para a obtenção de ligas de ouro coloridas”, diz Leal Neto. [caption id="attachment_31862" align="alignleft" width="270"] Joias multicoloridas produzidas pela Alluvium[/caption] Alta energia Araújo aplicou o pro­cesso de moagem de alta energia durante o mestrado feito no Ipen, no começo da década de 1990. A técnica foi escolhida por ele para a produção de um agente expansor para argamassas feito a partir de escória de alumínio, destinado à construção civil, projeto apoiado pela FAPESP, iniciado em 2001 e encerrado em 2002 (ver Pesquisa FAPESP nº 81). Leal Neto trabalhou com compostos intermetálicos, categoria em que se enquadram algumas ligas de ouro coloridas, durante o seu doutoramento no Centro de Ciência e Tecnologia de Materiais do Ipen, iniciado em 1993. Os dois juntaram os conhecimentos na área e, em parceria com Eneida Guilherme, criaram a empresa Regulus Ars com o intuito de obter ligas de ouro colorido, projeto financiado pela FAPESP na modalidade Pesquisa Inovativa em Pequena Empresa (Pipe), iniciado em novembro de 2003. Na primeira fase eles conseguiram obter pós e pequenas amostras sólidas nas cores azul, vermelha e púrpura. Quando o projeto passou para a segunda fase, a empresa se instalou no Centro de Inovação, Empreendedorismo e Tecnologia (Cietec), sediado no Ipen, no campus da Universidade de São Paulo, na capital paulista. Paralelamente um outro projeto Pipe, coordenado por Araújo, para a fabricação de artefatos de ouro colorido, foi aprovado em 2004. A parceria entre os sócios da Regulus foi desfeita em 2006. Duas novas empresas nasceram com essa cisão. Leal Neto e outros sócios criaram a Alluvium, que ficou abrigada no Cietec até julho deste ano, e deram continuidade ao primeiro projeto Pipe, encerrado em abril de 2008. “Fabricamos algumas joias para demonstrar a viabilidade da técnica”, diz Leal Neto. Araújo criou a empresa Jackie-O, instalada na Incubadora Tecnológica de Empresas de Sorocaba (Intes), no interior paulista. Com a nova empresa, ele deu continuidade ao projeto Pipe que coordenava, encerrado em julho deste ano. O processo para a fabricação dos pós de ouro colorido é o mesmo utilizado pelas duas empresas. Mas a partir daí tanto a Alluvium como a Jackie-O começaram a desenvolver suas próprias ligas e técnicas para a obtenção dos produtos de ouro colorido. Atualmente os sócios da Alluvium estão em busca de colaborações para desenvolver aplicações para o material. “Uma das nossas futuras parcerias deverá ser com a joalheira Silvia Furmanovich”, diz Leal Neto. “Como gosta de trabalhar com novos materiais, ela está muito confiante nas possibilidades de utilização dos pós de ouro colorido em joias diferenciadas.” Além de fabricar insumos para a confecção de joias, a empresa tem como estratégia desenvolver a aplicação do produto em outras áreas, como a cerâmica. Nesse caso, os pigmentos seriam empregados na pintura de azulejos de alto padrão. Na avaliação de Leal Neto, é preciso fazer um trabalho de marketingpara que o consumidor conheça o ouro colorido, já que inicialmente os engastes coloridos misturados ao ouro amarelo podem ser confundidos com resinas e outros materiais menos nobres. Araújo também aposta na divulgação para colocar suas peças de ouro colorido no mercado. Em parceria com o ourives Rodolfo Penteado e o engenheiro de materiais Oswaldo Vilela da Silva Junior, desenvolveu uma coleção, composta de brincos, pingentes, colares e alianças. A própria empresa Jackie-O vai se encarregar da produção e distribuição das joias coloridas. “A expectativa é colocar o nosso produto no mercado até o final deste ano”, diz Araújo. Para isso, contratou uma empresa júnior da Escola de Comunicação e Artes da Universidade de São Paulo, que fará o planejamento de comunicação do produto, e a consultoria da Fundação Getúlio Vargas, encarregada da análise mercadológica. Os projetos 1. Obtenção de ligas de ouro colorido por moagem de alta energia (nº 03/02133-6); Modalidade Pesquisa Inovativa em Pequena Empresa (Pipe); Coordenador Eneida da Graça Guilherme – Alluvium; Investimento R$ 325.664,02 (FAPESP) 2. Processo para manufatura de artefatos de ouro colorido (nº 04/14290-1); Modalidade Pesquisa Inovativa em Pequena Empresa (Pipe); Coordenador Edval Gonçalves de Araújo – Jackie-O; Investimento R$ 497.965,02 (FAPESP) [post_title] => Ourivesaria colorida [post_excerpt] => Pó de ouro misturado a outros metais resulta em ligas de cores variadas [post_status] => publish [comment_status] => closed [ping_status] => closed [post_password] => [post_name] => ourivesaria-colorida [to_ping] => [pinged] => [post_modified] => 2017-01-30 13:00:39 [post_modified_gmt] => 2017-01-30 15:00:39 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisaclone.fapesp.br/2009/10/01/ourivesaria-colorida/ [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [1] => stdClass Object ( [ID] => 30043 [post_author] => 23 [post_date] => 2009-10-01 10:10:00 [post_date_gmt] => 2009-10-01 13:10:00 [post_content] => [caption id="attachment_31881" align="alignright" width="290"] Protótipo de tela flexível transparente recebe carga elétrica no laboratório do Inmetro[/caption] Será provavelmente dispensável em uma viagem no futuro acomodar o notebook numa pasta ou mochila – bastará dobrá-lo e enfiar no bolso. Esse avanço tecnológico se tornará realidade quando as telas flexíveis de diodos orgânicos emissores de luz, os chamados Foleds (da sigla flexible organic light emitting device), chegarem ao mercado num futuro próximo. Vários fabricantes de equipamentos eletrônicos, como Sony, Philips, Fujitsu, e grupos de pesquisa no mundo perseguem esse objetivo, entre eles uma equipe de pesquisadores brasileiros do Instituto de Química da Universidade Estadual Paulista (IQ-Unesp), do campus de Araraquara, no interior de São Paulo, e do Instituto Nacional de Metrologia, Normalização e Qualidade Industrial (Inmetro), no Rio de Janeiro. Recentemente, eles desenvolveram o protótipo de um Foled que utiliza um substrato inédito baseado em biocelulose, uma espécie de papel transparente batizado pelos pesquisadores de biopaper, com transparência superior a 90% na região visível do espectro eletromagnético, o que significa deixar passar quase toda a luz incidida sobre ele. O grupo de pesquisadores, que está elaborando um pedido de patente do dispositivo, apresentou a novidade à comunidade científica internacional em dezembro de 2008 por meio de um artigo na revista Thin Solid Films. Além de computadores de mão, os papéis eletrônicos flexíveis também são esperados para uso em painéis publicitários, revistas e jornais eletrônicos, cardápios de restaurantes e cartazes em lojas, por exemplo. Considerados uma das mais promissoras tecnologias de vídeo e imagem do futuro, os Foleds são uma resposta aos esforços para obtenção de um dispositivo eletrônico que combine as propriedades ópticas do papel, como alta refletividade, flexibilidade e contraste com a capacidade dinâmica das telas digitais convencionais que equipam notebooks, telefones celulares e PDAs, os pequenos computadores de mão usados no comércio e em restaurantes. De início, o substrato mais utilizado para a preparação desses dispositivos foi o vidro, material transparente e com boa resistência mecânica, mas com uma limitação evidente: a dificuldade de se fabricar telas e outros equipamentos flexíveis ou dobráveis, porque o material sofre fraturas com facilidade. A segunda aposta recaiu sobre materiais poliméricos, que permitem a obtenção de sistemas mais leves, flexíveis e portáteis, sem perder a transparência e a resistência necessárias. Diversos polímeros, incluindo o PET, sigla de poli (tereftalato de etileno), acetato de celulose,  policarbonato e poliuretano, têm sido usados para a produção de dispositivos flexíveis. O problema é que, além de serem sintéticos ou derivados de petróleo, requerem diversos tratamentos adicionais para gerar um material ideal e, na maioria das vezes, não são biocompatíveis nem biodegradáveis. [caption id="attachment_31882" align="alignleft" width="290"] Substrato do papel flexível: produção sem resíduos tóxicos[/caption] As vantagens do substrato baseado em biocelulose criado pelos brasileiros estão relacionadas com o fator ambiental e com o sistema produtivo mais simples, além da matéria-prima renovável. Também chamada de celulose bacteriana (CB), ela é produzida pela bactéria Gluconacetobacter xylinus na forma de mantas altamente hidratadas, com 99% de água e apenas 1% de celulose. Seu processo produtivo não gera resíduos tóxicos ao ambiente como ocorre no método tradicional de produção de celulose. Por ser biodegradável e biocompatível, permite também o uso na fabricação de dispositivos médicos. “Embora possua a mesma estrutura química da celulose de plantas, a biocelulose apresenta, em comparação à sua congênere vegetal, maior pureza, alta cristalinidade e excepcional resistência mecânica”, explica o químico Younés Messaddeq, professor do Laboratório de Materiais Fotônicos (Lamf) do IQ-Unesp. Na preparação final do papel transparente, os pesquisadores incorporaram um sistema híbrido contendo alumina e siloxano, um tipo de polímero à base de silício, à estrutura microfibrilar das membranas de biocelulose. A adição desses compostos eleva a transparência do biopaper, que saltou de um índice próximo a 40% na região visível do espectro eletromagnético para mais de 90%, diz Hernane Barud, doutorando em química do Lamf. A síntese do material híbrido alumina-siloxano fez parte da tese de doutorado do pesquisador José Maurício Almeida Caiut, que é bolsista de pós-doutorado da FAPESP no IQ-Unesp. Luz própria Abiocelulose tem a estrutura de uma rede tridimensional de fios de dimensões nanométricas (medidas equivalentes a 1 milímetro dividido por 1 milhão) – as nanoceluloses – e proporciona um amplo leque de aplicações, que vai da medicina, como substituta temporária de pele em curativos que já estão à venda, produzidos pela empresa Fibrocel, de Londrina, no Paraná, à indústria de alimentos, na fabricação de fibras dietéticas, como a nata de coco, passando por substratos flexíveis para a deposição de Oleds, sigla em inglês para dispositivos orgânicos emissores de luz. A vantagem dos Oleds ante as telas convencionais (plasma, LCDs) atualmente em uso é sua capacidade de produzir luz própria. Sua estrutura baseia-se na colocação de películas orgânicas entre dois materiais condutores. Quando uma corrente elétrica passa por ele, o dispositivo emite luz brilhante, num processo conhecido como eletroluminescência. O protótipo preparado pela Unesp e Inmetro é baseado na fabricação de Oleds sobre um substrato flexível, o biopaper, e tem estrutura semelhante à de um sanduíche. Ele é composto por uma série de filmes nanométricos com propriedades e funções específicas. O substrato, por sua vez, é composto pela biocelulose, uma camada de material condutor e uma camada de dióxido de silício (SiO2) que tem a função de retirar a rugosidade do papel que interfere na condução elétrica do dispositivo. O material condutor é nesse caso um filme de óxido de índio dopado com estanho, composto que leva o nome de ITO, ou indium tin oxide, material usado na fabricação de telas de cristal líquido. Na divisão de tarefas, coube à Unesp a criação da biocelulose e do biopaper, enquanto o Laboratório de Dispositivos Orgânicos (Lador) da Divisão de Metrologia Científica do Inmetro ficou responsável pela fabricação e caracterização do Foled. “Uma das missões do nosso laboratório é realizar pesquisas metrológicas de novas tecnologias baseadas em materiais orgânicos, além de apoiar a indústria nacional e outros centros de pesquisa no desenvolvimento e na caracterização de materiais”, afirma Cristiano Legnani, pesquisador do Lador. “Desde 2006 estamos desenvolvendo no Inmetro pesquisas em Oleds sob vidro e também sob substratos flexíveis poliméricos, como poliuretano e polieteremida.” [caption id="attachment_31883" align="alignright" width="290"] Curativo produzido com celulose bacteriana já está no mercado[/caption] Corrida ao sucesso Foi numa visita a Araraquara, em 2005, que o pesquisador Marco Cremona, professor do Departamento de Física da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio) e chefe do Lador, conheceu as pesquisas relativas à biocelulose conduzidas pelos professores Messaddeq e Sidney José Lima Ribeiro. Desse encontro surgiu o interesse em fazer, em conjunto, o dispositivo flexível. Segundo Messaddeq, o uso de biocelulose para fabricação de Foleds é inédito, embora um grupo japonês do Research Institute for Sustainable Humanosphere da Universidade de Kioto já tenha conseguido desenvolver com sucesso um protótipo que usa um substrato feito com celulose vegetal, embora também não tenha um produto final. Os pesquisadores Marco Cremona, Cristiano Legnani e Welber Quirino também esperam que a inovação criada por eles possa ser usada em terapia fotodinâmica para tratamento de câncer de pele e outras doenças dermatológicas. O uso de um substrato flexível com propriedades biocompatíveis, como a biocelulose, é crucial para o desenvolvimento dessa tecnologia. No método convencional dessa terapia, um medicamento fotossensibilizante é aplicado no paciente e se concentra no tumor, que recebe um foco de luz (laser ou LEDs), resultando na destruição do tecido lesado. Com o Foled, que seria alimentado por uma pequena bateria, menor que a de um celular, a droga seria incorporada ao dispositivo e este colocado sobre a pele. “Como ele emite luz própria, o paciente poderia ir para casa e desenvolver suas atividades normais, sem precisar ficar na clínica recebendo a luz do tratamento convencional”, explica Legnani. Os resultados iniciais do Foled de biocelulose foram, segundo Messaddeq, semelhantes aos de dispositivos similares feitos com vidro, mas ainda é preciso reduzir as rugosidades na superfície das membranas de biocelulose e, assim, aumentar a eficiência eletroluminescente do papel eletrônico. Só depois a tecnologia poderá ser repassada à indústria. “A eficiência, entendida como a razão entre a quantidade de energia luminosa fornecida pelo dispositivo e a energia elétrica consumida para isso, e a qualidade devem ser pelo menos comparáveis com as dos dispositivos atualmente no mercado (como as telas de LCD)”, explica Messaddeq, para quem, na previsão mais otimista, os primeiros produtos baseados em Foleds devem estar no mercado em 2015. Artigo científico LEGANI, C. et al. Bacterial cellulose membranes as flexible substrates for organic light emitting devices. Thin Solid Films. v. 517, p. 1016-20, Dec. 2008. [post_title] => Finas e flexíveis [post_excerpt] => Pesquisadores criam telas multimídia com papel transparente e dobrável [post_status] => publish [comment_status] => closed [ping_status] => closed [post_password] => [post_name] => finas-e-flexiveis [to_ping] => [pinged] => [post_modified] => 2017-01-30 13:02:34 [post_modified_gmt] => 2017-01-30 15:02:34 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisaclone.fapesp.br/2009/10/01/finas-e-flexiveis/ [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [2] => stdClass Object ( [ID] => 30027 [post_author] => 20 [post_date] => 2009-10-01 10:20:00 [post_date_gmt] => 2009-10-01 13:20:00 [post_content] => A aviação mundial é responsável por 2% do total de emissões de dióxido de carbono (CO2) produzidas pelo homem, de acordo com a Associação Internacional de Transporte Aéreo (Iata, na sigla em inglês), que reúne 230 companhias aéreas no mundo. Segundo a entidade, 10% do combustível usado em 2017 deverá ser alternativo e contribuir para a redução das emissões. A União Europeia também vai iniciar, em 2010, o monitoramento dos aviões que operam no continente com o intuito de reduzir o problema. Assim, a busca por combustíveis de aviação mais apropriados já começou. Entre as alternativas que podem se tornar realidade nos aeroportos está um biocombustível desenvolvido na Faculdade de Engenharia Química (FEQ), da Universidade Estadual de Campinas (Unicamp). Para o professor Rubens Maciel Filho, coordenador do projeto, a nova opção para abastecer aviões deverá ser por volta de 30% mais barata na fabricação e muito menos poluente que o querosene de aviação (QAV) tradicional. A equipe de pesquisadores depositou a patente no Instituto Nacional da Propriedade Industrial (INPI) referente ao processo de produção e de purificação de um bioquerosene feito a partir de óleos vegetais que os pesquisadores preferem não revelar a origem. O novo combustível não emite poluentes como enxofre, compostos nitrogenados, hidrocarbonetos ou materiais particulados, como é comum nos combustíveis que têm origem no petróleo, e contribui com o balanço de emissão de dióxido de carbono (CO2), gás que estimula o aquecimento global, por ser um produto de origem renovável. “Trata-se de um bioquerosene de alta pureza, acima de 99,9%”, diz Maciel, que também é um dos coordenadores do Programa de Pesquisa em Bioenergia (Bioen) da FAPESP. Os próximos passos que os pesquisadores precisam para avançar na consolidação do produto são a realização de testes em motores de avião e a produção em escala semi-industrial. Para isso, a Agência de Inovação da Unicamp (Inova), codetentora da patente, está interessada em negociar com empresas a cessão do direito de explorar comercialmente a nova tecnologia. O mercado é enorme. Segundo a Iata, o movimento em 2007, último dado disponível, foi de US$ 136 bilhões, correspondendo a 28% dos custos operacionais das companhias aéreas. O processo de produção do biocombustível a partir de óleos vegetais é conhecido e semelhante ao do biodiesel, só que mais trabalhoso. Nos dois casos é promovida uma reação química chamada transesterificação, na qual o óleo vegetal, obtido do esmagamento do fruto de plantas oleaginosas e após o refino, reage com um álcool e um catalisador (substância que promove a reação química) e dá origem ao combustível. O processo desenvolvido para a produção do bioquerosene utiliza etanol de cana-de-açúcar como reagente, outra  matéria-prima renovável. “Para o caso do bioquerosene, a etapa de engenharia da separação é muito mais elaborada para atender às características e especificações dos combustíveis de aviação que são muito rígidas”, explica Maciel, que contou nos estudos e na patente com participação dos pesquisadores Maria Regina Wolf Maciel, Cesar Benedito Batistella e Nívea de Lima da Silva, todos da Unicamp. “O bioquerosene deve ser muitíssimo puro, livre de vários compostos e impurezas que podem comprometer a qualidade do sistema de combustão a jato, além de ter viscosidade, densidade e poder calorífico muito específicos, o que não é requerido do biodiesel.” A transesterificação ocorre dentro de um reator onde os triglicerídios do óleo vegetal reagem com o etanol formando o éster – grupo químico em que se enquadra o bioquerosene –, além de glicerina, água, moléculas de ácidos graxos e glicerídios, e o que restou do etanol não reagido. Um dos avanços nessa fase da tecnologia desenvolvida pela equipe da Unicamp está na área da engenharia das reações, que envolve o balanço preciso das diversas variáveis envolvidas nas reações químicas resultantes no bioquerosene. A fase de separação foi decisiva no desenvolvimento do processo realizado pela equipe da Unicamp, com o isolamento do bioquerosene, do catalisador, da água, da glicerina e das impurezas presentes no meio reacional. É aí que está a inovação do processo desenvolvido pela equipe de Maciel Filho. Ele diz que o isolamento é feito em um processo intensificado de separação desenvolvido por eles, em condições de temperatura e pressão que possibilitam a obtenção do bioquerosene de forma economicamente viável e com as características de querosene de aviação estabelecidas pela Agência Nacional do Petróleo (ANP). Esse último ponto foi confirmado por análises realizadas na Unicamp e no Instituto de Pesquisas Tecnológicas (IPT). Com mistura “Os resultados das análises foram comparados com a tabela de especificação do querosene de aviação da ANP”, explica Maciel. Ficou demonstrado que o bioquerosene desenvolvido na Unicamp possui características semelhantes às do combustível tradicional porque possui ponto de congelamento muito menor que outros produtos reportados na literatura. O bioquerosene sem qualquer aditivo pode ser usado também em misturas com querosene extraído do petróleo, reduzindo significativamente a emissão de enxofre, compostos nitrogenados e particulados e contribuindo com o balanço de CO2. Embora exista uma série de pesquisas e diversos biocombustíveis sendo testados em várias partes do mundo, Maciel Filho ressalta a importância do grau de pureza obtido para o bioquerosene que sua equipe desenvolveu. “Apesar de ser comentada a existência de experimentos e realizações de testes fazendo uso de bioquerosene, não identificamos trabalhos nem patentes sobre o assunto na literatura técnica que permitisse a obtenção de bioquerosene de alta pureza”, assegura. Pode não haver um produto exatamente igual, mas já existem companhias aéreas que fizeram experimentos com aviões voando movidos a biocombustíveis. É o caso da americana Continental Airlines, a quinta maior empresa do setor do mundo, que anunciou recentemente a realização do primeiro voo de demonstração, com o uso de biocombustível, realizado no dia 7 de janeiro deste ano em Houston, no estado do Texas, nos Estados Unidos. A experiência foi feita com um Boeing 737-800, que teve um de seus motores abastecido com combustível tradicional e outro com uma mistura de querosene e biocombustível, feito a partir de algas e pinhão-manso (Jatropha curcas). O voo durou 90 minutos, durante os quais o avião, que não sofreu nenhuma modificação para o teste, realizou várias manobras bem-sucedidas, tais como reinicialização de motor, acelerações e desacelerações. Segundo a companhia, a mistura do biocombustível obteve melhor desempenho que o combustível tradicional, com uma eficiência de 1,1% superior, em diferentes estágios do voo. Além disso, o índice de gases causadores do efeito estufa emitidos na viagem demonstrativa com o biocombustível teve uma redução estimada entre 60% e 80%, comparado ao combustível tradicional. “O bioquerosene, a exemplo de outros biocombustíveis obtidos de fontes renováveis, é ambientalmente sustentável, contribui com a valoração da nossa agroindústria, agrega valor a produtos nacionais, além de reduzir o consumo de petróleo, viabilizando o deslocamento do uso desse importante produto fóssil para a fabricação de bens mais nobres do que combustíveis, na área química, em plásticos e fertilizantes”, diz Maciel. [post_title] => Querosene vegetal [post_excerpt] => Pesquisadores desenvolvem biocombustível de alta pureza para aviões [post_status] => publish [comment_status] => closed [ping_status] => closed [post_password] => [post_name] => querosene-vegetal [to_ping] => [pinged] => [post_modified] => 2017-01-30 13:04:04 [post_modified_gmt] => 2017-01-30 15:04:04 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisaclone.fapesp.br/2009/10/01/querosene-vegetal/ [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [3] => stdClass Object ( [ID] => 30044 [post_author] => 10 [post_date] => 2009-10-01 10:30:00 [post_date_gmt] => 2009-10-01 13:30:00 [post_content] => [caption id="attachment_31937" align="alignright" width="290"] Método de sensoriamento detecta e avalia pastagens que recebem sangue bovino descartado de forma irregular[/caption] A agricultura que visa à boa produtividade e ao melhor uso do solo tem à disposição sistemas tecnológicos para análise do potencial da terra. Chamada de agricultura de precisão, essa área está sempre em evolução e acompanha o avanço da microeletrônica com computadores de mão, softwares, receptores GPS (posicionamento por sinais de satélite), além de máquinas agrícolas, do sensoriamento remoto do solo e da geoestatística. Algumas dessas soluções estão reunidas e se tornam mais atraentes para o futuro da agricultura nos estudos do professor José Alexandre Demattê, da Escola Superior de Agricultura Luiz de Queiroz (Esalq) da Universidade de São Paulo (USP). Ele e seu grupo desenvolveram um novo tipo de mapa digital do solo que facilita o planejamento do plantio e pode ser elaborado de forma mais rápida que o convencional. “Utilizamos ao mesmo tempo imagens de satélite, fotos aéreas e sensores portáteis para obter um mapa de solos mais detalhado e permitir ao agricultor escolher as melhores áreas para plantio, estabelecer as áreas de reserva legal de mata, racionalizar a adubação e escolher as melhores variedades para aumentar a produtividade de uma cultura”, diz Demattê. “Os mapas de solo feitos atualmente no Brasil possuem poucos detalhes, têm custo financeiro alto e demoram para ser elaborados porque são muito trabalhosos.” Para formar um mapa mais detalhado e rápido, tornando-o mais barato, Demattê utiliza a análise do solo feito por reflectância, que é a energia refletida do solo e captada na forma de radiação eletromagnética pelos sensores localizados em terra e nos satélites, como os norte-americanos Landsat e Aster. “A radiação eletromagnética está associada com os constituintes do solo como argila, areia, óxidos de ferro, potássio, cálcio, matéria orgânica e minerais.” Para avaliação da camada superficial de uma área por imagem de satélite, o solo precisa estar exposto. Se estiver com vegetação, muda-se o método e utiliza-se o parâmetro de formas de relevo como modelos de elevação do solo geralmente adquiridas pelo sistema shuttle radar topography mission (SRTM), ou missão topográfica por radar do ônibus espacial, realizada em 2000 pelo Endeavour. “O objetivo de utilizar imagens de satélite não é saber a classificação do solo, porque a imagem capta apenas a camada superficial, mas obter mais uma informação que se agregue às outras, permitindo chegar ao provável tipo do solo.”
Outra ferramenta utilizada pelo pesquisador em áreas cobertas e descobertas é um sensor óptico, que pode ser levado em uma mochila. Ainda pouco utilizado na agricultura, esse aparelho custa em torno de US$ 60 mil. “É só apontar a fibra ótica para o solo para captar a energia refletida. Os dados são posteriormente processados e modelos matemáticos quantificam e ajudam a formar um mapa detalhado do solo”, diz Demattê. O sensor não substitui totalmente as análises em laboratório para saber a composição do solo. “Ele permite uma racionalização da coleta de amostras. Por exemplo, se numa fazenda for preciso coletar 500 amostras numa densidade de 1 por hectare (ha), pelo novo método coletam-se as mesmas 500 amostras, mas somente 150 seriam enviadas ao laboratório e o restante quantificado pelo sensor (que faz a leitura em 1 segundo), atingindo um ganho financeiro em análises de solo da ordem de até 64%, conforme mostrou a dissertação de mestrado do aluno Leo­nardo Ramirez Lopez, com bolsa da FAPESP, e participante do grupo.”
Demattê propõe uma maior integração de todas as técnicas para a formação de novos mapas. “É possível agregar informações de cada equipamento como os satélites, sensores de campo, modelos de elevação, forma do terreno, entre outros.” Ele diz existirem duas comunidades científicas que pouco se integram e isso é refletido na comunidade em geral. “São os pesquisadores da área de sensoriamento remoto e os da ciência do solo em que uns não utilizam os conhecimentos de análise do solo e os outros que não veem a real dimensão da aplicação do sensoriamento.” 076-077_mapeamento_164Parâmetros finais A integração de softwares para o novo sistema ainda não está pronta para que possa ajudar o agricultor. “Trata-se da próxima fase dos estudos em que vamos sistematizar a entrada de parâmetros para ter um resultado final. Já estamos em contato com outras instituições para estabelecer uma sequência de trabalhos e disponibilizar o sistema para a agricultura em geral. As pesquisas do professor Demattê também avançaram para o monitoramento ambiental com a utilização do sensor óptico na detecção rápida de sangue bovino despejado de forma irregular em áreas de pastagem e perto de riachos. Cada bovino gera de 15 a 20 litros de sangue, produto que pode ser vendido, pelos frigoríficos, para empresas que o processam para fabricação de plasma e farinha usados em rações. Demattê elaborou um estudo para avaliar as alterações ocorridas no solo. “Foram observadas alterações em solos da região oeste de São Paulo.” Para detectar a presença do sangue na terra, utilizaram-se amostras com e sem o produto, analisadas pelo sensor em laboratório. “Verificamos que os solos são muito alterados na parte química, principalmente com excesso de sódio, com modificação nos teores de nutrientes e do pH.”  Os dados indicam que o produto é jogado em locais impróprios e os resíduos se deslocam para os rios e riachos, além de possivelmente contaminarem os lençóis freáticos. O professor conseguiu determinar um método de sensoriamento remoto para detectar e avaliar o problema rapidamente. O grupo de pesquisa em Geotecnologia em Ciência do Solo (GeoCis) da Esalq, coordenado por Demattê, está agora preparando artigos científicos que depois serão transformados em um relatório a ser apresentado para a Companhia Ambiental do Estado de São Paulo (Cetesb), órgão responsável pela fiscalização do destino de sub-produtos de origem animal. Os projetos 1. Integração de técnicas múltiplas no mapeamento do solo (nº 07/55241-1); Modalidade Auxílio Regular a Projeto de Pesquisa; Coorde­nador José Alexandre Demattê – USP; Investimento R$ 100.381,20 (FAPESP) 2. Detecção de subprodutos frigoríficos por sensoriamento remoto espectral nas regiões do ultravioleta, visível e infravermelho (nº 05/59691-6); Modalidade Auxílio Regular a Projeto de Pesquisa; Coorde­nador José Alexandre Demattê – USP; Investimento R$ 30.514,95 e US$ 35.050,00 (FAPESP) [post_title] => Detalhes no solo [post_excerpt] => Sistema integra satélite e sensores para elaborar um mapa de áreas de plantio [post_status] => publish [comment_status] => closed [ping_status] => closed [post_password] => [post_name] => detalhes-no-solo [to_ping] => [pinged] => [post_modified] => 2017-01-30 13:05:20 [post_modified_gmt] => 2017-01-30 15:05:20 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisaclone.fapesp.br/2009/10/01/detalhes-no-solo/ [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [4] => stdClass Object ( [ID] => 30045 [post_author] => 22 [post_date] => 2009-10-01 10:40:00 [post_date_gmt] => 2009-10-01 13:40:00 [post_content] => [caption id="attachment_31948" align="alignright" width="290"] Fêmea do mosquito-palha, vetor da doença no Brasil[/caption] De uma doença praticamente silvestre, restrita a áreas rurais, a leishmaniose visceral acompanhou os movimentos migratórios do século XX e instalou-se nas periferias das cidades. No Brasil, as regiões Norte e Nordeste concentraram 1.998 casos dos 3.303 registrados em 2008. Transmitida pela picada da fêmea do mosquito Lutzomyia longipalpis, um inseto de apenas 3 milímetros conhecido como mosquito-palha ou birigui, a doença pode afetar cães, raposas e até gambás, considerados os principais reservatórios do parasita causador da doença, o protozoário Leishmania chagasi. Uma vacina recombinante contra a leishmaniose visceral canina, chamada Leish-Tec, desenvolvida em parceria entre a Universidade Federal de Minas Gerais (UFMG) e a empresa mineira Hertape Calier Saúde Animal, mostrou eficiência de 90% nos testes conduzidos em uma área endêmica da doença tanto humana como canina, com animais de diferentes raças sujeitos à picada do inseto. “Se há uma diminuição no número de cães infectados, a longo prazo vai ocorrer uma redução nos casos humanos também”, diz a parasitologista Célia Gontijo, da Fundação Oswaldo Cruz (Fiocruz) em Belo Horizonte. A vacina é uma das várias frentes de combate à transmissão da leishmaniose visceral, doença que se não tratada a tempo pode levar à morte em 90% dos casos, após comprometimento de órgãos como fígado, baço e medula óssea. A vacina recombinante é feita a partir da inserção da informação genética de uma proteína do protozoário Leishmania chagasi em bactérias, que são então replicadas. As bactérias funcionam como uma biofábrica que produz o antígeno para a vacina. Lançada comercialmente em outubro de 2008, a vacina continua a ser alvo de ensaios clínicos pela empresa, para que, encerrada essa fase, possa ter seu uso recomendado pelo Ministério da Saúde. No novo estudo, chamado de ensaio clínico fase 3, que está sendo realizado desde o início de 2008, estão sendo feitos testes com 1.150 cães de uma região endêmica para leishmaniose visceral, tanto humana como canina. “Estamos trabalhando em uma cidade onde existe o controle integral da epidemiologia da doença e monitoramento dos cães”, explica Christiane de Freitas Abrantes, gerente de Biotecnologia da Hertape Calier, empresa fabricante de produtos veterinários. “Nesse estudo temos um grupo de animais vacinado e outro não.” Para fazer uma análise isenta, a metodologia escolhida foi o estudo duplo-cego. Ou seja, nenhum dos donos dos animais participantes do estudo sabe quais deles receberam a vacina. A empresa investiu até agora cerca de R$ 25 milhões no desenvolvimento da Leish-Tec. “As duas únicas vacinas existentes no mundo para combate da leishmaniose visceral canina foram desenvolvidas no Brasil”, diz a professora Ana Paula Fernandes, da Faculdade de Farmácia da UFMG, que participou do desenvolvimento da Leish-Tec em parceria com o professor Ricardo Tostes Gazzinelli, do Instituto de Ciências Biológicas da UFMG e coordenador do Instituto Nacional de Ciência e Tecnologia em Vacinas (INCTV). A vacina foi concebida para induzir uma resposta celular do organismo, já que o Leishmania é um parasita intracelular. “O organismo geneticamente modificado expressa o antígeno necessário para estimular o sistema imune a combater a infecção da leishmaniose”, diz Ana Paula. O primeiro passo para chegar à vacina recombinante foi identificar genes importantes do protozoário na ativação do sistema imune para desenvolver uma resposta protetora. No caso, o gene escolhido codifica uma proteína chamada pelos pesquisadores de A2. “A proteína A2 induz a resposta específica de linfócitos T, responsáveis pela imunidade celular”, explica. Tecnologia transferida Após testes em modelo experimental de camundongos, a UFMG fez em 2003 a transferência da tecnologia para a Hertape Calier. “Estabelecida a parceria, foram feitos testes adicionais necessários para que a vacina pudesse ser comercializada”, diz Ana Paula. A partir de 2004, foi iniciado um teste, chamado de fase 2, da vacina em cães, conduzido com um número limitado de animais submetidos a infecção artificial do parasita, em condições controladas. “Demoramos três anos para concluir essa fase e os resultados foram muito promissores”, relata. Com base nesses resultados foi concedido o registro pelo Ministério da Agricultura, Pecuária e Abastecimento para a vacina ser comercializada. Uma nova instrução normativa, publicada em conjunto entre o Ministério da Saúde e o da Agricultura, exigiu testes adicionais. “A única vacina veterinária que precisa passar por ensaios clínicos de fase 3 é a da leishmaniose, porque afeta as pessoas e é uma zoonose grave”, diz Christiane. Embora ainda seja cedo para afirmar que há uma efetiva redução nos casos de leishmaniose entre pessoas em função da vacinação em cães, pesquisa realizada pelo grupo da professora Clarisa Palatnik de Sousa, do Instituto de Microbiologia da Universidade Federal do Rio de Janeiro (UFRJ), aponta resultados favoráveis nesse sentido. Clarisa foi quem coordenou a pesquisa que resultou no desenvolvimento da primeira vacina contra a leishmaniose visceral canina, feita a partir de antígenos do parasita e lançada em 2004 pela empresa Fort Dodge, multinacional de produtos para saúde animal com fábrica em Campinas, no interior paulista, com o nome comercial de Leishmune. Estudo coordenado pela pesquisadora publicado na revista Vaccine, em junho deste ano, aponta que houve uma redução na incidência de leishmaniose visceral humana e canina após vacinação feita em duas áreas endêmicas no Brasil, de 2004 a 2006. Em Araçatuba, no interior paulista, houve uma diminuição de 25% na leishmaniose canina com um declínio de 61% nos casos em humanos, relata o estudo. Em Belo Horizonte, a curva de crescimento da incidência da doença em cães e humanos caiu ou se manteve estável após a vacinação de cães. Célia Gontijo, da Fiocruz mineira, alerta que é preciso desenvolver um método de diagnóstico que possa ser utilizado em larga escala para diferenciar o resultado positivo provocado pela vacina. Isso porque os testes aplicados como controle de detecção atualmente podem indicar que o animal vacinado está com leishmaniose quando, na realidade, tem outras doenças que não são transmitidas ao homem. Ana Paula, da UFMG, diz que como a Leish-Tec é constituída por um antígeno recombinante produz pouquíssimos anticorpos, diferentes dos usados no teste sorológico rotineiro de detecção. Artigos científicos PALATNIK de Sousa, C.B. et al. Decrease of the incidence of human and canine visceral leishmaniasis after dog vaccination with Leishmune in Brazilian endemic áreas. Vaccine. v. 27, p. 3.505-12. 2 jun. 2009. FERNANDES. A. P. et al. Protective immunity against challenge with Leishmania chagasi in beagle dogs vaccinated with recombinant A2 proteinVaccine. v. 26, p. 5.888-95. 29 out. 2008. [post_title] => Proteção contra leishmaniose [post_excerpt] => Proteína usada em vacina recombinante reduz transmissão da doença visceral [post_status] => publish [comment_status] => closed [ping_status] => closed [post_password] => [post_name] => protecao-contra-leishmaniose [to_ping] => [pinged] => [post_modified] => 2017-01-30 13:07:56 [post_modified_gmt] => 2017-01-30 15:07:56 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisaclone.fapesp.br/2009/10/01/protecao-contra-leishmaniose/ [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) ) [humanidades] => Array ( [0] => stdClass Object ( [ID] => 30047 [post_author] => 24 [post_date] => 2009-10-01 10:50:00 [post_date_gmt] => 2009-10-01 13:50:00 [post_content] => O criador da mais conhecida e celebrada canção sertaneja, Tristeza do Jeca (1918), não era, como se poderia esperar, um sofredor habitante do campo, mas o dentista, escrivão de polícia e dono de loja Angelino Oliveira. Gravada por “caipiras” e “sertanejos”, nos “bons tempos do cururu autêntico” assim como nos “tempos modernos da música ‘americanizada’ dos rodeios”, Tristeza do Jeca é o grande exemplo da notável, embora pouco conhecida, fluidez que marca a transição entre os meios rural e urbano, pelo menos em termos de música brasileira. Num tempo em que homem só cantava em tom maior e voz grave, o Jeca surge humilde e sem vergonha alguma da sua “falta de masculinidade”, choroso, melancólico, lamentando não poder voltar ao passado e, assim, “cada toada representa uma saudade”. O Jeca de Oliveira não se interessa pelo meio rural da miséria, das catástrofes naturais, mas o íntimo e sentimental, e foi nesse seu tom que a música, caipira ou sertaneja, ganhou sua forma. “A canção popular conserva profunda nostalgia da roça. Moderna, sofisticada e citadina, essa música foi e é igualmente roceira, matuta, acanhada, rústica e sem trato com a área urbana. Isso valeu para as canções de Jobim, Chico e ainda vale para boa parte da nossa música. Em todas essas personas há sempre a voz paradigmática do migrante que se faz ouvir para registrar uma situação de desenraizamento, de dependência e falta”, analisa a cientista política Heloísa Starling, vice-reitora da Universidade Federal de Minas Gerais (UFMG) e organizadora de Imaginação da terra: memória e utopia na canção popular brasileira. A coletânea de textos, fruto do seminário homônimo realizado pelo Projeto República/UFMG, em 2008, a ser publicado, neste segundo semestre, pela editora da universidade mineira em conjunto com o Nead (Núcleo de Estudos Agrários e Desenvolvimento Rural), traz uma ampla discussão sobre as saudades nacionais de roça e sertão. O site do Projeto República traz também uma página para matar as saudades de Matão de qualquer ser urbano. Mais um fruto do Imaginação da Terra,  a página traz uma cronologia da canção caipira e links para que se possa ouvir as músicas mais importantes do gênero, um mapeamento inédito e fundamental. Afinal, essas canções “rurais” – produzidas em sua maioria no meio urbano por pessoas que vivem entre a cidade e o campo (mas se consideram “do campo”), nota a pesquisadora, falam da ausência da natureza, idealizada, e reiteram a dor da perda, a saudade, uma nostalgia dos bons tempos – surgiram como reação a um momento em que o país estaria hipnotizado pelo desejo de modernização, com levas de migrantes da zona rural. “Nasce uma canção que procura sugerir que, nesse enredo problemático chamado Brasil, existe algo permanente sem lugar e por isso contendo todos os lugares, todas as ausências, tudo o que pode vir a ser: o fundo arcaico do mundo rural projetado sobre uma sociedade primitiva que vive longe do espaço urbano e que é, aparentemente, o seu avesso.” Inusitadamente, o tema também atraiu a atenção do antropólogo americano Alexander Dent, professor da George Washington University, que, após mais de 11 anos de estudos feitos no Brasil, em especial no estado de São Paulo, realizou a pesquisa que será lançada no próximo mês pela Duke University Press, River of tears: country music, memory and modernity in Brazil (312 páginas, US$ 84,95), o primeiro estudo etnográfico sobre a música sertaneja nacional. Dent pretendeu explicar não apenas a produção e a recepção desse gênero no país, mas também as razões que o levaram a experimentar um crescimento tão intenso quanto o verificado no período entre o fim da ditadura militar e a reforma neoliberal. “Os gêneros rurais refletem uma ansiedade generalizada de que as mudanças, a modernização, foram muito rápidas e muito radicais. Ao definir sua música como sertaneja, os músicos brasileiros, cujo trabalho circula largamente nas cidades, querem que suas canções sirvam como crítica à vida urbana crescente e inescapável que toma conta de todo o Brasil e é caracteri­zada pela supressão das emoções e uma falta de respeito pelo passado”, explica Dent. “Suas apresentações evocam um ‘rio de lágrimas’ fluindo por uma paisagem de perda do amor, da vida no campo e das ligações do homem com o mundo natural.” [caption id="attachment_32002" align="alignleft" width="237"] Dupla Alvarenga e Ranchinho: música do campo feita na cidade[/caption] Country A paixão country, porém, não está mais restrita apenas ao mundo fonográfico, mas rompeu fronteiras do comportamento de parte expressiva da elite urbana em músicas, na moda rural, no espetáculo milionário do rodeio. “Apesar de seu crescimento, o fenômeno country permanece ainda difuso, sem contornos nítidos que possam precisar sua definição e compreensão. Não há uma percepção, por exemplo, sobre as particularidades do estilo de vida country no Brasil. Em geral, se dá como certo que se trata de uma cópia do que existe nos EUA”, avisa a socióloga Silvana Gonçal­ves de Paula, professora adjunta da Universidade Federal Rural do Rio de Ja­­neiro do Instituto de Economia da Universidade Federal do Rio de Janeiro. “Sem dúvida, a emergência desse fenômeno tem estreita conexão com a experiência americana, mas não se pode ceder à facilidade de tomar automaticamente essa conexão como mera cópia, uma ideia reducionista de imitação que favorece o clichê nacionalista, que, pela insistência fundamentalista na preservação de algo genuinamente autóctone, acusa a infiltração na nossa sociedade da ‘malévola’ tendência de reproduzir tudo o que vem de fora, em especial dos EUA.” Isso também se reflete na eterna e pouco convincente dicotomia entre música sertaneja, “colonizada, comercial e modernizada”, e música caipira, “digna, das raízes, sincera”, que permeia o preconceito de acadêmicos e, acima de tudo, jornalistas, de tudo o que vem da primeira em detrimento da segunda. “Há um discurso que afirma que, a partir da década de 1950, a música rural perde a sua pureza e seu sotaque ao mesclar as modas de viola com outros gêneros latinos e a incorporação de outros instrumentos, sendo necessário, então, que se preservem as características originais da música interiorana para que ela não se perca”, observa a socióloga Elizete Ignácio, ligada à Fundação Getúlio Vargas (FGV-Rio). “Existe uma nostalgia da moda caipira de raízes com um sabor amargo do tempo perdido com a modernização que relegou a todos sobreviverem num mundo desencantado, dominado pelos meios de comunicação de massa, cujo controle ideológico transformaria a população em ‘mera consumidora’, e não ‘produtora de seu discurso final’”, continua. Segundo a pesquisadora, a visão que se tem dos sertanejos modernos é o de um reflexo de uma nova elite agrária que nada teria a ver com o caipira, definido por sua simplicidade, rusticidade, cordialidade. As festas populares teriam se perdido em meio ao aparato técnico, e a busca pelo internacional e pelo multi, frutos da modernização, e a adoção de novas tecnologias e linguagens aproximariam o sertanejo mais do country americano do que do caipira brasileiro. “A minha pesquisa com cowboys que vieram ao Brasil participar de rodeios mostra outras realidades, mais sutis. Na sociedade dos EUA é que o estilo de vida country está associado ao labor, à simplicidade, à dignidade rústica do contato com a natureza. No Brasil o estilo de vida country é quase o avesso de tudo isso, e, entre nós, o country fala a favor de uma inserção da ruralidade nos critérios de civilidade urbana, uma inserção que se faz mediante o pleito da dignificação do ser humano. O estilo de vida country introduz o tema da ruralidade no cenário urbano e dialoga com as fronteiras tradicionais que, aqui, delimitam a relação entre o campo e a cidade”, nota Silvana. [caption id="attachment_32003" align="alignright" width="290"] Capa do disco de Boldrin recupera visão idílica do caipira de Almeida Júnior[/caption] Na música, a sutileza das surpresas pode ser ainda maior. “Foi entre 1902 e 1960 que a música sertaneja surgiu como um campo específico no interior da MPB. Mas, se num período inicial, até 1930, sertanejo denotava indistintamente as músicas produzidas no interior do país, tendo como referência o Nordeste, a partir dos anos 1930 sertanejo passou a significar o caipira do Centro-Sul. E, pouco mais tarde, de São Paulo. Assim, se Jararaca e Ratinho, ícones da passagem do sertanejo nordestino para o ‘caipira’, trabalhavam no Rio, as duplas dos anos 1940, como Tonico e Tinoco, trabalhariam em São Paulo”, explica o antropólogo Allan de Paula Oliveira, que acaba de defender seu doutorado, Miguilim foi pra cidade ser cantor: uma antropologia da música sertaneja, na Universidade Federal de Santa Catarina. Curiosamente, nota o pesquisador, o que houve, no princípio, foi uma “colonização” da música sertaneja pela música caipira por meio dos timbres e dos novos subgêneros, com o estabelecimento da dupla cantando em intervalos de terças como a formação típica, bem como, entre outros fatores, a especialização no universo dito “caipira” pelo uso de maquiagem e vestuá­rios “a caráter”, até que, por volta de 1950, a música sertaneja, em sua forma “caipira”, estava cristalizada em seu novo formato. Além disso, da mesma forma que os “neossertanejos” de hoje são vítimas do preconceito dos mais puristas, nos anos 1960, lembra Allan, a música sertanejo-caipira foi excluída de processos importantes que acabaram resultando na elaboração da sigla MPB. “Da mesma forma, o gênero não teve destaque nos festivais dos anos 1960, sendo pouco aproveitado na gênese da MPB. Para o público da época, jovem, rural era o baião.” Alienação Posteriormente, a música sertaneja ganharia a triste função de ser exemplo de categorias sociológicas como lúmpen, proletariado, alienação. “Trata-se de uma música que seria colocada à margem por classes dominantes e consumida por um público vasto, porém ‘subalterno’, como se dizia na época. Até a segunda metade dos anos 1980 ela permaneceria à margem no conjunto da música brasileira, um gênero escutado fora do centro. Desse modo, o campo da música sertaneja, até então, estava dividido em duas posições: uma valorizando as raízes caipiras da música sertaneja, e que usava a expressão ‘música caipira’ para denotar sua prática e diferenciá-la da outra posição, formada por uma música sertaneja aberta às influências externas e que usava a expressão ‘música sertaneja’ para se denotar.” O grande boom que esta segunda “facção” musical experimentou aconteceu em 2005 com a divulgação do filme Os dois filhos de Francisco. “Foi um fenômeno, e, ao lado do axé e do pagode, hoje é um dos três gêneros que mais estiveram em evidência ao longo da década de 1990, ocupando espaços crescentes na mídia”, nota Allan. Segundo o pesquisador, a ascensão desses gêneros musicais até então relacionados a grupos sociais marginalizados no conjunto da sociedade é uma das contrapartidas da entrada desses grupos no universo de consumo. Um índice importante, no caso da música sertaneja dos anos 1990, é o rodeio, evento símbolo do universo rural modernizado, com o peão reelaborado em cowboy. A trilha desses eventos, a música sertaneja, manteve características anteriores, mas aprofundando-as com a entrada da influência do pop e do rock, que se traduz nas formações musicais novas usadas pelas duplas, com bandas de apoio de guitarras, baixo, teclados  etc. em que a presença da sonoridade da viola caipira tornou-se secundária, quando utilizada. Peão “Curiosamente, a dominação masculina do peão de rodeio sobre o touro selvagem opera como um tipo de polo oposto à música extremamente expressiva e lacrimosa que acompanha os eventos. Falei com vários peões que me disseram ser a sua fachada lacônica uma cobertura para o seu interior emocional, que, segundo eles, era bem representado naquelas músicas”, conta Alex Dent. “Isso também explic a a tradição da dupla sertaneja, em geral constituída por irmãos, com pouco espaço para a presença feminina. Por meio da irmandade, a música revela vulnerabilidades masculinas no palco que são, em geral, escondidas, vetadas pelo machismo.” Segundo o antropólogo americano, os músicos definem o seu universo como “sertanejo”, com isso significando que as letras de suas canções são críticas da realidade urbana que suprime as emoções e não dá atenção ao passado, usando o campo “antigo” como modelo e lamentando o que se perdeu com a modernidade. “Rural, no caso dessa música, não significa que os músicos ou seus fãs sejam necessariamente do meio rural, já que, na maior parte, sua música é produzida e circula no meio urbano. No entanto, essa ‘ruralidade’ não deve ser entendida literalmente como referências ao campo, mas fazer uso do espaço para ressaltar a fragmentação do indivíduo e a perda do passado idílico que seus adeptos acreditam ter sido arrasado pela urbanização”, nota. A música sertaneja, imbuída de um estado de crise emocional, deve provocar o mesmo no ouvinte: a reemergência do coração. “Brasileiros nos lugares onde fiz a pesquisa continuam a experimentar o mesmo desconforto com a rapidez da mudança e do progresso. Se sentem que devem absorver as novidades, ao mesmo tempo temem a perda iminente da sua identidade. A música e o estilo de vida sertanejos são algumas das formas por onde esse medo pode transparecer.” Daí, segundo Dent, pode estar outra das muitas razões que explicam o crescimento do gênero com a democratização do país. “A música sertaneja parece, a uma primeira vista, passar por cima da ditadura, já que não há canções sobre tortura, censura ou desaparecidos. Mas o rural por trás do gênero enfatiza a crítica velada às narrativas de progresso que eram centrais aos ‘milagres econômicos’ coercivos das ditaduras militares.” Os “anos de chumbo” podem não estar visíveis, mas uma crítica a seu principal vetor está presente para quem quiser ouvir os lamentos pela “perda forçada da inocência” do campo. “Após 1985, com a redemocratização, muitos grupos passaram a usar o gênero sertanejo como alternativa às narrativas de progresso da ditadura, em especial aquelas associadas com urbanização, industrialização e orientação para o futuro. O olhar para trás, saudoso do passado perdido, foi subitamente mobilizado com vigor para problematizar discursos de brasilidade e da aceitação impensada do progresso pelo progresso”, explica o antropólogo. Entretanto, não se entenda nisso uma adoção imediata de posições menos conservadoras. “Os gêneros musicais rurais também criticaram a redemocratização, apresentando a modernidade da globalização como tendo mais um caráter corruptor do que progressivo. No lugar do esquecimento do local, da história e da terra, o sertanejo propõe a necessidade de cada um se reconhecer como rural, valorizar o passado ideal e enriquecido com o sangue dos irmãos.” Ao mesmo tempo, porém, que a Tristeza do Jeca toca o coração dos sertanejos com seus suspiros pelo passado, isso não impede que eles possam verter rios de lágrimas ouvindo gravações modernas da canção em sistemas de som de última geração ou em palcos de shows com imensos recursos técnicos. [caption id="attachment_32005" align="alignright" width="290"] Inezita Barroso[/caption] Ideologia “O mesmo CD que vi na casa de muitos aprendizes de violeiro em campos do MST estava na estante de milionários para quem ‘era preciso trazer de volta os militares para acabar com a bandalheira no campo e na política’. Já não há mais como restringir o sertanejo a classes ou ideologias”, analisa Dent. Em suma, a música sertaneja é um excelente espelho do país e sua eterna convivência entre o antigo e o moderno. “A questão do irmão, por exemplo, sempre esteve na música sertaneja: se antes ela lamentava as raí­zes quebradas com a migração, hoje celebra a impotência diante do amor. A viola ainda conecta o passado com o futuro, com estudantes se esmerando para aprender ritmos arcanos por meios digitais. A ruralidade é, acima de tudo, popular porque se vive no campo e na cidade ao mesmo tempo. Silvana Gonçalves concorda. “É uma ambivalência forte do country brasileiro. Os adeptos do gênero estão referidos ao mesmo tempo a dois lugares, porque estão num trânsito incessante de cruzamento de fronteiras. O aspecto intrigante disso é que por causa, justamente, desta possibilidade recente de ir e vir, isto é, exatamente, no trânsito entre dois referenciais, que este estilo de vida country constrói suas raízes. É precisamente no deslocamento que se produz uma territorialização.” Assim, o “mau” do progresso feito pela ditadura (construção, por exemplo, de estradas, melhoramento do campo, desenvolvimento de uma agricultura moderna) permite agora que se possa ter um território com cidade e campo. Não sem razão, a democratização veio acompanhada, a todo volume, pela música sertaneja como sua trilha sonora. “O estilo de vida country no Brasil, portanto, é uma experiência que não reproduz a vida campestre, agrícola ou pecuária. Antes, é uma experiência que ritualiza nos vários cenários urbanos (torneios esportivos, danceterias, turismo, moda, regras de sociabilidade) os elementos que são atribuídos à relação com a natureza, à agricultura, à pecuária. Assim, o estilo de vida country toma a ruralidade como fonte de inspiração para o delineamento de padrões de sociabilidade urbanos”, observa Silvana. O country (ou “cáuntri”, como ouvido por Dent ao longo de sua pesquisa no Brasil) funciona como uma das instâncias que “produz” o campo, e sua trilha é a música sertaneja, expressão criadora da realidade. “Assim, para o sertanejo não há razão para separar ‘sertanejo’ de ‘caipira’, se tudo faz parte do mesmo espectro. Prova disso eu vi num show em Barretos, em 1999, quando a dupla Xitãozinho e Xororó se uniu à dupla Tião Carreiro e Pardinho para cantar Pagode em Brasília (sucesso da dupla antiga), com todas as conotações que a cidade traz como projeto de modernização e futuro do Brasil. No país do século XXI, a inovação não está em simplesmente mandar essa mensagem num dos maiores rodeios do mundo, mas em combinar uma apresentação do passado com o presente em que uma dupla comercialmente bem-sucedida pode dividir o palco com suas ‘raízes’ agora ditas caipiras”, conta o antropólogo. [post_title] => Saudades do Jeca no século XXI [post_excerpt] => Música sertaneja revela-se um bom retrato do país [post_status] => publish [comment_status] => closed [ping_status] => closed [post_password] => [post_name] => saudades-do-jeca-no-seculo-xxi [to_ping] => [pinged] => [post_modified] => 2017-01-30 13:12:27 [post_modified_gmt] => 2017-01-30 15:12:27 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisaclone.fapesp.br/2009/10/01/saudades-do-jeca-no-seculo-xxi/ [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [1] => stdClass Object ( [ID] => 30048 [post_author] => 204 [post_date] => 2009-10-01 11:00:00 [post_date_gmt] => 2009-10-01 14:00:00 [post_content] => [caption id="attachment_32048" align="alignright" width="290"] Manifestação contra o regime militar[/caption] Uma revolução está acontecendo nos arquivos públicos de todo país desde maio deste ano. Acervos estaduais e federais, universidades, ministérios e entidades de defesa dos direitos humanos estão empenhados em tornar possível no menor espaço de tempo o Projeto Memórias Reveladas, que pretende reunir na internet milhões de documentos produzidos pelos órgãos de repressão de todos os estados brasileiros sobre presos políticos e luta armada durante a ditadura militar (1964-1985). É a primeira vez na história que os arquivos dos estados da federação se unem para uma empreitada de tamanha magnitude. De modo mais amplo, a interação irá possibilitar o cruzamento dos dados que estão sob a guarda do arquivo regional de cada capital. Em sentido mais restrito, deve redimensionar a pesquisa histórica do período de diversas formas. Como, por exemplo, ampliar o volume de documentos disponíveis para consulta e permitir que parentes de mortos e desaparecidos ou vítimas sobreviventes possam saber o que foi registrado sobre elas e como sua vida foi monitorada pelas forças de repressão. E mais: promoverá um barateamento das pesquisas, uma vez que interessados de todo país não precisarão mais buscar recursos para se deslocar até São Paulo, Rio de Janeiro ou Brasília – onde está armazenado um número maior de documentos. Enfim, será possível consultar nomes arquivados em qualquer parte do país sem sair de casa e fazer uso dos mesmos sem avolumar papéis e reproduções. À frente da iniciativa está a Casa Civil da Presidência da República, com a coordenação do Arquivo Nacional do Rio de Janeiro. Desde maio, quando foi lançado oficialmente o Centro de Referência das Lutas Políticas no Brasil (1964-1985) – Memórias Reveladas, uma média de cinco novos parceiros tem se juntado à iniciativa de vários pontos do Brasil e até do exterior. Eram mais de 40 até a última semana de setembro. A lista inclui arquivos estaduais, centros de documentação, centros de pesquisas e entidades vinculadas às universidades, Comissão de Anistia, Comissão de Mortos e Desaparecidos e a americana Brown University. Em setembro foi a vez da FAPESP fechar uma parceria com o Arquivo Nacional e o Arquivo Público do Estado de São Paulo para participar do financiamento do trabalho de digitalização dos documentos e da compra de equipamentos. [caption id="attachment_32049" align="alignleft" width="290"] Manifestação contra o regime militar[/caption] Com isso, o trabalho deverá ser retomado em breve – estava parado desde julho, quando foi encerrada a primeira etapa, que começou em novembro passado e durou oito meses, com patrocínio da Petrobras. “A busca pela parceria da FAPESP nasceu da nossa percepção de que um terço dos que desenvolvem o levantamento dos documentos ligados à repressão é de São Paulo, até porque foi o estado onde mais se deu a resistência armada e estudantil ao regime militar”, observa o professor Carlos de Almeida Prado Bacellar, coordenador do Memórias Reveladas pelo Arquivo do Estado de São Paulo. Os detalhes de como o acordo será colocado em prática, acredita ele, devem ser definidos nas próximas semanas. Bacellar afirma que, “pela tradição da FAPESP, que é bastante atuan­te em pesquisa no Brasil”, foi feito um contato entre a direção do arquivo com o presidente do Conselho Superior da Fundação, Celso Lafer. “Logo finalizamos um compromisso de cooperação que nos deixou muito felizes e certos de que logo retomaremos os trabalhos.” A FAPESP se enquadra como financiadora porque o projeto prevê a organização e tratamento de acervos de diversos fundos documentais sob a guarda de arquivos estaduais e centros de documentação em universidades paulistas. O Arquivo Público de São Paulo abriga o maior acervo do gênero no país, com aproximadamente 150 mil prontuários, 1,1 milhão de fichas do Deops e 9 mil pastas com dossiês, além de 1.500 pastas de Ordem Política e 2.500 pastas de Ordem Social. Todo esse material data desde a década de 1930, quando foram criados os primeiros órgãos de vigilância e repressão política, durante a Presidência de Getúlio Vargas (1883-1954). Na etapa inicial do Memórias foram microfilmadas 2 mil pastas com dossiês e digitalizadas 340 mil fichas temáticas do Arquivo Geral do Deops, por uma equipe de 25 pessoas. Está previsto o escaneamento de mais 660 mil fichários. “O ideal seria dobrar o número de colaboradores para reduzir o tempo à metade”, sugere Bacellar. Uma necessidade urgente ainda, ressalta, é a aquisição de um equipamento para transformar microfilmes em arquivos digitais, uma vez que existem mais de 1,5 milhão de imagens nessa condição. A máquina custa cerca de € 55 mil ou R$ 150 mil. Vicente Arruda, coordenador nacional do Memórias Reveladas pelo Arquivo Nacional, define a iniciativa como um projeto de uma geração de brasileiros que lutou contra um regime de opressão. “Não é algo que possa ser dimensionado porque é uma iniciativa que nos leva a descobertas constantes, todos os dias, a todo momento, inclusive por causa de doações de arquivos particulares.” Ele conta que, pela Lei Rouanet, foi possível captar em 2005 R$ 7 milhões de estatais como Petrobras, Eletrobrás, Banco do Brasil, Caixa Econômica Federal e BNDES. Com a adesão de diversos organismos nos últimos meses, como a FAPESP, não se pode ainda quantificar quanto todas movimentam juntas, mas deve ser uma quantia superior ao que veio das estatais. [caption id="attachment_32050" align="alignright" width="290"] Manifestações contra o regime militar[/caption] O coordenador acredita que a adesão da FAPESP ajudará a atrair novos colaboradores que atuam como fomentadores de pesquisa. Ou seja, outras fundações estaduais. Faperj (Rio de Janeiro), Facepe (Pernambuco) e Fapemig (Minas Gerais) já foram contatadas pelo Arquivo Nacional. Caso participem do projeto, como sua área de atuação é limitada geograficamente, ajudarão com recursos os arquivos de seus estados, principalmente aqueles que abrigam as fichas dos presos políticos produzidas pelas unidades do Deops. Somente os documentos sigilosos não serão disponibilizados para consulta na rede – os chamados “ultrassecretos”, com sigilo de 10, 15 ou até 30 anos, renováveis pelo mesmo período. Assim, aqueles cujo prazo de sigilo já tenha expirado e os que não possuem nenhuma classificação poderão ser livremente consultados. Todo esse trabalho de organização dos acervos estaduais está sendo feito dentro da Norma Brasileira de Descrição Arquivística (Nobrad) para que, assim, padronize-se a descrição dos documentos em todo país. “Compreendo o Memórias Reveladas como uma iniciativa similar a outras que estão sendo desenvolvidas em outros países. Por isso existe a intenção de expandir a rede para toda América Latina, vamos tentar fazer uma integração com países que viveram regimes ditatoriais nas últimas décadas.” Ele lembra que os argentinos já demonstraram interesse recentemente. A Rádio Nacional, de Buenos Aires, fez uma reportagem em agosto sobre o projeto. Arruda explica que, além do objetivo inicial de digitalização das fichas, por intermédio da Rede Nacional de Cooperação e Informação Arquivística, recém-criada por causa do projeto, no futuro, podem-se desenvolver outros projetos nesta rede mundial de computadores. Outra mudança significativa tem sido o fato de que muitos arquivos estaduais estão sendo informatizados para se juntar ao Memórias. “Estamos assistindo à consolidação de uma política pública de valorização do patrimônio documental, que inclui também a formação de técnicos.” Ele lembra ainda que o Arquivo Nacional está lançando uma campanha nacional de divulgação do projeto e para convocar a sociedade a entregar documentos, inclusive agentes da repressão, com a promessa de sigilo total. O Centro de Referência das Lutas Políticas começou a funcionar com mais de 13 mil páginas de documentos recolhidos pelo Arquivo Nacional. Em 2005 a Casa Civil da Presidência da República determinou que as instituições federais transferissem toda a documentação sobre a ditadura militar para o Arquivo Nacional. A Agência Brasileira de Inteligência (Abin), por exemplo, teve de ceder todos os arquivos do Conselho de Segurança Nacional (CSN), da Comissão Geral de Investigações (CGI) e do Serviço Nacional de Informações (SNI), órgãos encarregados de fazer a vigilância e a repressão política entre as décadas de 1960 e 1980. Desse modo, o Arquivo Nacional aumentou em mais de 10 vezes o seu acervo sobre a ditadura militar. O banco de dados Memórias Reveladas será alimentado on-line pelas instituições parceiras à medida que os documentos forem digitalizados, e não de uma só vez. Também fará parte deste banco de dados a documentação do Arquivo Nacional sobre a ditadura militar. Na verdade, São Paulo saiu na frente no esforço de disponibilizar seus documentos na rede. Bacellar explica que a ideia de criar um centro de referência virtual sobre repressão política durante a ditadura militar no estado foi colocada em prática desde 2005 e tinha como base o acervo do Deops, que é considerado o mais aberto do país – funciona desde 1991. “Sempre trabalhamos com muito cuidado, afirmamos termo de compromisso e responsabilidade pelo uso de informações pessoais com todos os pesquisadores que nos procuram e nunca tivemos processo.” Com parte do acervo na internet, o usuário precisa se cadastrar pessoalmente e pegar uma senha para acessar os documentos. “Trabalhamos com responsabilidade, dentro do conceito de que não se pode negar acesso público a documentos se uma medida assim acoberta ações irregulares cometidas em nome do Estado. O torturador não pode ser protegido pelo Estado.” Memória e verdade O resgate da memória da repressão durante o regime militar tem sido feito em várias frentes por instituições oficiais. Como o projeto Direito à Memória e à Verdade da Secretaria Especial dos Direitos Humanos da Presidência da República, iniciado em 29 de agosto de 2006. “A diferença do nosso é que enquanto o Memórias Reveladas trabalha com a digitalização de arquivos para a internet, nós promovemos eventos, exposições, publicação de livros etc.”, explica Vera Rotta, conselheira de arquivos da secretaria e assessora. “Embora não tenham ligação direta, formal, os dois possuem uma interface, completam-se nesse esforço de resgatar a história daquele período”, acrescenta. Em 2007, por exemplo, foi lançado o livro Direito, memória e verdade, em parceria com a Universidade Federal de Minas Gerais (UFMG). A primeira edição do livro teve tiragem de 3 mil exemplares, distribuídos a comissões de familiares, centros de pesquisa, imprensa, parlamentares e bibliotecas públicas. Vera conta que o volume foi lançado em cerimônia no Palácio do Planalto, com a presença de familiares de vítimas, recebidos antes pelo presidente Luiz Inácio Lula da Silva, em audiência reservada. Resultou de 11 anos de trabalho da Comissão Especial sobre Mortos e Desaparecidos Políticos – Vera integrou a equipe que sistematizou a histórica documentação. São recuperadas as trajetórias políticas e muitas vezes trágicas de 479 militantes políticos que atuaram em oposição às forças do Estado entre 1961 e 1988. Uma dos aspectos que chamam a atenção em Direito, memória e verdade para pesquisadores é o fato de trazer a antiga versão para o que supostamente teria ocorrido com os desaparecidos de acordo com os órgãos de repressão e uma nova versão oficial, obtida depois da pesquisa realizada pela comissão. Dos levantamentos feitos, o saldo foi o seguinte: 136 pessoas já tinham suas mortes ou desaparecimentos reconhecidos oficialmente, outras 221 passaram a ter direito a indenização para as famílias após o trabalho da comissão; e 118 tiveram pedidos de reconhecimento oficial negados. O projeto Direito à Memória e à Verdade também é responsável pela construção de memoriais às vítimas da repressão, como o momumento em frente à reitoria da UFMG aos quatro estudantes mortos nessa universidade; o memorial, em Santa Catarina, em homenagem ao sociólogo Paulo Stuart Wright, ex-militante da Ação Popular (AP); e outro memorial, inaugurado recentemente, para homenagear os cinco estudantes mortos na PUC-SP. [post_title] => Anos de chumbo on-line [post_excerpt] => Projeto porá na internet documentos sobre a ditadura militar [post_status] => publish [comment_status] => closed [ping_status] => closed [post_password] => [post_name] => anos-de-chumbo-on-line [to_ping] => [pinged] => [post_modified] => 2017-01-30 13:13:35 [post_modified_gmt] => 2017-01-30 15:13:35 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisaclone.fapesp.br/2009/10/01/anos-de-chumbo-on-line/ [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [2] => stdClass Object ( [ID] => 30046 [post_author] => 24 [post_date] => 2009-10-01 11:10:00 [post_date_gmt] => 2009-10-01 14:10:00 [post_content] => O Muro de Berlim caiu há 20 anos, mas apenas agora se ouviu o barulho do seu impacto real e, ainda que um símbolo do socialismo, seus fragmentos acabaram atingindo, nos últimos meses, outro “muro”, dessa vez um símbolo do capitalismo: Wall Street. Um livro fundamental para entender todo o contexto dessas mudanças é Revolution 1989: the fall of the soviet empire (Random House, 480 páginas, US$ 30), de Victor Sebestyen, que acaba de ser lançado na Europa e nos Estados Unidos. Aliás, num momento histórico em que os dois fatos se entrecruzam, como observou o economista Joseph Stiglitz numa entrevista recente ao jornal espanhol El País, é preciso analisar que o fim do socialismo, se, por um lado, gerou um entusiasmo geral para os adeptos do capitalismo, por outro, agora, traz questionamentos importantes a respeito do funcionamento do sistema nas últimas décadas.“Quando Stiglitz diz que a crise financeira afetará o fundamentalismo de mercado com força devastadora comparável à que teve a queda do Muro de Berlim sobre os destinos do comunismo deixou de dizer que a ligação dos episódios é mais do que meramente simbólica”, explica o economista e diplomata Rubens Ricupero, diretor da Faculdade de Economia e Administração da Fundação Armando Álvares Penteado (FAAP) e ex-secretário-geral da Conferência das Nações Unidas para o Comércio e Desenvolvimento (Unctad). Segundo ele, a atual crise financeira, que trouxe de volta discussões antigas sobre o papel do Estado numa economia de mercado, é um fruto tardio da derrubada do ícone socialista. “Na verdade, o desaparecimento do contrapeso representado pelo socialismo ajudou a liberar as forças originadoras dos excessos financeiros que iriam desencadear o derretimento do sistema especulativo dos anos recentes.” O diplomata lembra que em 1990, após o triunfalismo da queda do Muro de Berlim, a única voz sensata foi da Unctad, que, em seu relatório anual, previu que aquela década e a seguinte seriam caracterizadas pela frequência, intensidade e poder destrutivo das crises financeiras e monetárias. “Na raiz do desastre estava a aceleração da tendência para eliminar qualquer controle interno e externo ao fluxo desimpedido de capitais. Por essas razões pode-se prever como vai acabar o século XXI americano: pela desenfrea­da liberalização financeira e devido ao imoderado gosto da cobiça”, avalia Ricupero. “Há muito tempo que o poder em Washington não é dominado mais pelo complexo militar-industrial, mas pelo financeiro-político-militar. E assim termina o mundo, como vaticinava T.S. Eliot, não com um estrondo, mas com um gemido.” O economista alerta para a concentração excessiva das análises sobre a crise recente apenas nos seus aspectos financeiros, com a política aparecendo às vezes como pano de fundo referencial, se falando ainda menos sobre o processo pelo qual setores ligados às finanças conquistaram posições no sistema político americano. À queda do Muro seguiu-se outra queda igualmente poderosa para o andamento do capitalismo nas bases atuais: a das torres gêmeas no 11 de Setembro de 2001. “Houve a partir daí um súbito e contínuo reforço do poder do Estado, sua afirmação crescente perante o mercado e a sociedade civil”, observa. “Um dos corolários da mudança àquela época é que a política e a estratégia tinham voltado, como nos tempos da guerra, a ganhar total prioridade sobre a economia. Após os atentados, porém, com a injeção intensa de recursos financeiros no sistema pelo Estado, a economia melhorou e, amortecidos os primeiros impactos dos atentados, retomado o vigor da expansão econômica depois de 2002, criou-se a impressão de que o mercado tinha recuperado sua autonomia em relação ao domínio da política”, analisa. Para o professor, havia uma intensificação de movimento experimentado pelo mercado após a queda do Muro: “O fim do socialismo foi um maremoto político. O vácuo ideológico e o desequilíbrio de forças consequentes tornaram possível aquilo que era antes inconcebível: a absoluta hegemonia dos mercados financeiros e os excessos responsáveis pelo colapso atual”. Afinal, o Muro em ruínas colocara conceitos como “esquerda” e “direita” numa posição delicada. “A queda do Muro e o fim da União Soviética e a redemocratização geral esvaziaram as propostas e a energia social da esquerda. Foram os detergentes de ideologias”, como observa o cientista político Leôncio Martins Rodrigues, da Universidade Estadual de Campinas (Unicamp). Ganhou força a “terceira via” pregada por Giddens e praticada por Tony Blair. “Sua ideologia era a mistura de globalização com liberalização. Globalização entendida como unificação em escala planetária dos mercados, sobretudo para as finanças. Liberalização no sentido de eliminar tudo o que pudesse limitar as oportunidades dos negócios. A fiscalização, se acreditava, ficaria por conta da suposta capacidade autorregulatória dos mercados.” O que não se percebeu, continua o diplomata, foi que o papel do Estado passaria a ser cada vez mais permanente como fator de estabilização de uma situação econômica de crescente desequilíbrio interno e externo. “Se a crise de 1929 foi uma crise de mercados, a crise dos anos 1990 foi uma crise do Estado. E esta crise do Estado, deste ponto de vista, se coloca no plano de quem é que vai saldar estes créditos que os indivíduos têm em relação à coletividade. Um crédito para o qual é preciso ter recursos e para os quais um Estado fragilizado, inclusive na sua capacidade de promover bem-estar social, se coloca com clareza”, avalia Celso Lafer, professor titular do Departamento de Filosofia e Teoria Geral do Direito da Faculdade de Direito da Universidade de São Paulo. Ricupero lembra ainda que as crises da década de 1990 (que atingiram México, Argentina, quase todos os países asiáticos, em 1997, Rússia e Brasil) não serviram como lição para o sistema. “Longe de se beneficiar de alguma tendência inelutável derivada da natureza das coisas, a proliferação financeira foi a política oficial perseguida e imposta vigorosamente pelo governo americano, pelos criadores do Consenso de Washington, pela quase totalidade das organizações e dos bancos internacionais liderados pelo FMI e pelo Banco Mundial”, analisa. “Nos Estados Unidos, como resultado, o setor financeiro saltou de 10% do total dos lucros corporativos em 1980 para 40% em 2006, apesar de gerar apenas 5% dos empregos.” Daí a justa indignação de Ricupero com a ausência de uma análise política e ideológica da crise atual, incluindo-se aí um retrospecto histórico que remonta ao fim do Muro. “Essas transformações todas não se deram por geração espontânea. Foram o produto de escolhas políticas, da atividade determinante e das decisões do Executivo e do Congresso americano. Constituíram o resultado da ação política de um Estado a serviço de interesses de setores econômicos influentes, em especial o financeiro. A manipulação ideológica esforçou-se, no entanto, em fazer crer que a evolução não passava de imposição irresistível da globalização econômica.” Nikita Krushev, onde quer que esteja, deve estar rindo de ter inventado uma monstruosidade como o Muro, que, mesmo demolido, mostrou-se uma bomba-relógio anticapitalista. [caption id="attachment_31976" align="alignleft" width="290"] Queda do Muro de Berlim há 20 anos: entusiasmo gerou crise atual[/caption] Unificação “Em paralelo com as modificações que nos EUA reforçavam a convergência entre governo e setor financeiro, o colapso do comunismo real e a mudança de rumos na China deram as condições necessárias para consolidar o modelo em ascensão. O primeiro pôs fim à divisão da Alemanha, da Europa e do mundo em dois blocos ideológicos e militares incompatíveis, possibilitando a unificação em escala planetária dos mercados para as finanças e para o comércio”, observa Ricupero. “O segundo deu nascimento ao processo que garantiu 25 anos de crescimento acelerado chinês.” “Efetivamente, se não se alterar de forma radical a correlação de forças, é difícil imaginar que o governo americano aceite um tipo de reforma que lhe reduza o poder de modo substancial. Assim como o setor financeiro, temporariamente enfraquecido, não terá outro remédio senão aceitar por algum tempo a presença intrusiva do Estado”, avalia Ricupero. A queda do Muro, porém, foi saudada de início como o começo de uma nova e melhor era na relação entre os países. “Foi um momento interessante, por reunir líderes em torno de uma centro-esquerda preo­cupada com valores, bem como com a arquitetura financeira. Essa articulação foi afetada pelo fim do mandato desses governantes: Bill Clinton, Schroeder, D’Alema, Jospin, Fernando Henrique Cardoso, Tony Blair. Eles tentaram fixar a agenda pós-Guerra Fria, tomando como marco inaugural desse novo tempo a queda do Muro”, analisa. “Havia a expectativa de que era preciso construir uma ordem mundial mais kantiana, mais cosmopolita, mais humana. Isso tudo foi colocado em xeque após o 11 de Setembro. Ali o mundo mudou.” No artigo “Questões para a diplomacia no contexto internacional das polaridades indefinidas”, Lafer e o diplomata Gelson Fonseca Jr. formulam, a partir do fim do Muro, um diagnóstico do futuro do sistema internacional. Segundo eles, a predominância de forças centrípetas era a característica marcante do primeiro “pós-Guerra Fria, período entre a queda do Muro e a guerra do Golfo, entre 1990 e 1991. Nesse período, observam, houve uma análise otimista e mesmo eufórica das transformações internacionais, apontando para o surgimento de uma “comunidade internacional”, racionalmente orientada pelo mercado e pela democracia. Volta-se a falar em “nova ordem internacional”, que seria a “construção de todos”, movimento que gera uma revalorização das Nações Unidas, a que, pensava-se, livre dos entraves que a impediam de funcionar plenamente na Guerra Fria, se seguiria um novo momento em que a ONU poderia cumprir sua função de instrumento de segurança universal. Realidade Após essa euforia, seguiu-se, continuam Lafer e Fonseca, a emergência de forças centrífugas do “segundo pós-Guerra Fria”, iniciado com a derrocada da URSS e o fim da Iugoslávia. Era o fim da crença no triunfo dos valores iluministas universais e o ressurgimento de conflitos étnicos, religiosos, culturais, que foram um forte obstáculo à lógica da globalização. “O Muro de Berlim foi o grande símbolo da realidade que fez da política internacional algo contíguo à guerra, tendo como critério o antagonismo amigo/inimigo. Daí o realismo da lógica do poder da Guerra Fria. A sua queda gerou expectativas positivas sobre a possibilidade de construção de uma ordem mundial mais pacífica e mais cooperativa. Isso não se manteve, porque o mundo mudou novamente”, observa Lafer. O Muro igualmente movimentou a política externa brasileira. “A chancelaria brasileira, eu costumava dizer, havia sido pensada tendo em vista a relação Leste-Oeste e a relação Norte-Sul como articulada nas brechas da primeira. O fim da relação Leste-Oeste significava que a relação Norte-Sul tinha que ser repensada à luz não de uma nova conjuntura, mas de uma transformação da estrutura de funcionamento do sistema internacional. Minha reflexão era que o mundo continuava mudando e que estávamos operando num jogo de forças centrípetas e centrífugas. As primeiras levavam à globalização e as segundas à fragmentação” nota Lafer. No ruir de uma estrutura edificada escondiam-se problemas futuros e o fim das utopias, agora as democráticas. “É a intuição poética de Camões, no início da globalização dos descobrimentos, ao voltar e encontrar a pátria ‘metida no gosto da cobiça e na rudeza de uma austera, apagada e vil tristeza’”, lembra Ricupero. [post_title] => Um estrondo que ainda ecoa duas décadas depois [post_excerpt] => Discussão revela o impacto da queda do Muro de Berlim na atual crise [post_status] => publish [comment_status] => closed [ping_status] => closed [post_password] => [post_name] => um-estrondo-que-ainda-ecoa-duas-decadas-depois [to_ping] => [pinged] => [post_modified] => 2017-01-30 13:16:13 [post_modified_gmt] => 2017-01-30 15:16:13 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisaclone.fapesp.br/2009/10/01/um-estrondo-que-ainda-ecoa-duas-decadas-depois/ [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) ) ) [categories] => Array ( [covid-19] => WP_Term Object ( [term_id] => 3561 [name] => Covid-19 [slug] => covid-19 [term_group] => 0 [term_taxonomy_id] => 3563 [taxonomy] => category [description] => [parent] => 75 [count] => 72 [filter] => raw [term_order] => 0 [cat_ID] => 3561 [category_count] => 72 [category_description] => [cat_name] => Covid-19 [category_nicename] => covid-19 [category_parent] => 75 ) [butantan-120-anos] => WP_Term Object ( [term_id] => 3686 [name] => Butantan – 120 Anos [slug] => butantan-120-anos [term_group] => 0 [term_taxonomy_id] => 3688 [taxonomy] => category [description] => [parent] => 75 [count] => 4 [filter] => raw [term_order] => 0 [cat_ID] => 3686 [category_count] => 4 [category_description] => [cat_name] => Butantan – 120 Anos [category_nicename] => butantan-120-anos [category_parent] => 75 ) [pesquisa-fapesp-20-anos] => WP_Term Object ( [term_id] => 2699 [name] => Pesquisa Fapesp 20 anos [slug] => pesquisa-fapesp-20-anos [term_group] => 0 [term_taxonomy_id] => 2701 [taxonomy] => category [description] => [parent] => 75 [count] => 12 [filter] => raw [term_order] => 0 [cat_ID] => 2699 [category_count] => 12 [category_description] => [cat_name] => Pesquisa Fapesp 20 anos [category_nicename] => pesquisa-fapesp-20-anos [category_parent] => 75 ) [ufrj-100-anos] => WP_Term Object ( [term_id] => 3501 [name] => UFRJ - 100 anos [slug] => ufrj-100-anos [term_group] => 0 [term_taxonomy_id] => 3503 [taxonomy] => category [description] => [parent] => 75 [count] => 10 [filter] => raw [term_order] => 0 [cat_ID] => 3501 [category_count] => 10 [category_description] => [cat_name] => UFRJ - 100 anos [category_nicename] => ufrj-100-anos [category_parent] => 75 ) [politica] => WP_Term Object ( [term_id] => 78 [name] => Política C&T [slug] => politica [term_group] => 0 [term_taxonomy_id] => 78 [taxonomy] => category [description] => [parent] => 75 [count] => 1123 [filter] => raw [term_order] => 21 [cat_ID] => 78 [category_count] => 1123 [category_description] => [cat_name] => Política C&T [category_nicename] => politica [category_parent] => 75 ) [ciencia] => WP_Term Object ( [term_id] => 76 [name] => Ciência [slug] => ciencia [term_group] => 0 [term_taxonomy_id] => 76 [taxonomy] => category [description] => [parent] => 75 [count] => 1904 [filter] => raw [term_order] => 22 [cat_ID] => 76 [category_count] => 1904 [category_description] => [cat_name] => Ciência [category_nicename] => ciencia [category_parent] => 75 ) [tecnologia] => WP_Term Object ( [term_id] => 77 [name] => Tecnologia [slug] => tecnologia [term_group] => 0 [term_taxonomy_id] => 77 [taxonomy] => category [description] => [parent] => 75 [count] => 1056 [filter] => raw [term_order] => 23 [cat_ID] => 77 [category_count] => 1056 [category_description] => [cat_name] => Tecnologia [category_nicename] => tecnologia [category_parent] => 75 ) [humanidades] => WP_Term Object ( [term_id] => 79 [name] => Humanidades [slug] => humanidades [term_group] => 0 [term_taxonomy_id] => 79 [taxonomy] => category [description] => [parent] => 75 [count] => 795 [filter] => raw [term_order] => 24 [cat_ID] => 79 [category_count] => 795 [category_description] => [cat_name] => Humanidades [category_nicename] => humanidades [category_parent] => 75 ) ) ) -->

Política C&T

Ciência

Tecnologia

Humanidades