Publié en septembre 2008 [caption id="attachment_120484" align="alignright" width="290"]Caapiranga, en Amazonie, octobre 2005: le lac est devenu une zone aride Caapiranga, en Amazonie, octobre 2005: le lac est devenu une zone aride[/caption] Le coup d’envoi du plus grand effort multidisciplinaire déjà fait au Brésil pour  élargir la connaissance sur les changements climatiques mondiaux a eu lieu à la fin du mois dernier. Des scientifiques de l’état de São Paulo de différents domaines – des sciences physiques et naturelles aux sciences humaines – sont invités à participer au Programme FAPESP de Recherche sur les Changements Climatiques Mondiaux, lancé officiellement le 28 août au matin. 100 millions de réais – soit près de 10 millions de réais par an – seront investis au cours des dix prochaines années pour articuler des études de base et des études appliquées sur les causes du réchauffement de la planète et ses impacts sur la vie des personnes. D’après Carlos Henrique de Brito Cruz, directeur scientifique de la FAPESP, « l’objectif est d’intensifier quantitativement et qualitativement la contribution des chercheurs de São Paulo afin de faire avancer la connaissance sur ce thème complexe. Nous pensons que ce programme favorisera la production d’études supplémentaires sur des sujets qui concernent particulièrement le Brésil. Nous espérons que l’augmentation de la production scientifique brésilienne en la matière garantira au pays un plus grand espace dans le débat mondial sur les changements climatiques ». Deux appels d’offres ont été lancés, d’une valeur totale de 16 millions de réais divisés à part égale entre la FAPESP et le Conseil National de Développement Scientifique et Technologique (CNPq), par l’intermédiaire du Programme de Soutien aux Centres d’Excellence (Pronex). L’un des appels d’offre, d’un montant de 13,4 millions de réais, regroupe des projets concernant six thèmes distincts : 1. Le fonctionnement des écosystèmes, avec l’accent sur la biodiversité et les cycles de carbone et d’azote ; 2. Le bilan de la radiation atmosphérique et plus particulièrement les études sur les aérosols, lesdits gaz traces (monoxyde de carbone, ozone, oxydes d’azote et composés organiques volatils, entre autres) et le changement d’utilisation de la terre ; 3. Les effets des changements climatiques sur l’agriculture et l’élevage ; 4. L’énergie et le cycle des gaz à effet de serre ; 5. Les impacts sur la santé et 6. Les dimensions humaines du changement environnemental mondial. L’objectif initial du programme étant de former et d’articuler un réseau de chercheurs, la FAPESP a décidé de financer des projets thématiques ; toutefois, les prochains appels d’offres pourront disposer d’autres modalités de financement, à l’exemple du Soutien Financier aux Jeunes Chercheurs. Des partenariats sont prévus dans les semaines à venir avec des fondations de soutien à la recherche de trois états : Amazonas, Pará et Rio de Janeiro. La justification du lancement du programme va au delà du besoin urgent de faire avancer la connaissance sur ce thème au Brésil, à un moment où les scientifiques se mobilisent à l’échelle mondiale pour comprendre les changements climatiques et adopter des mesures pour faire face aux conséquences. Vu qu’une série d’impacts et d’aspects liés au réchauffement de la planète affectent ou affecteront le Brésil en particulier, il incombe aux chercheurs brésiliens de les analyser et de découvrir des éléments de réponses. Pour Carlos Nobre, coordinateur du Programme FAPESP de Recherche sur les Changements Climatiques Mondiaux et du tout nouveau Centre des Sciences du Système Terrestre (CCST) de l’Institut National de Recherches Spatiales (Inpe), « les pays développés veulent engager tous les pays en développement dans la même grande bataille mondiale pour réduire les émissions de gaz à effet de serre. Ils sont inquiets de l’adaptation aux changements climatiques, mais pas de notre adaptation ». La grande majorité des scientifiques est d’accord sur le fait que l’action humaine contribue de manière décisive aux changements climatiques en raison de l’émission de gaz et d’aérosols qui provoquent l’effet de serre. Les modifications continues du modèle de la couverture végétale au Brésil représentent notamment un important facteur régional du phénomène. En plus de nuire à la qualité de l’air, le brûlage de forêts est une source importante d’aérosols et de gaz traces. Le changement du régime des pluies, qui provoque une recrudescence d’événements extrêmes comme les sécheresses et les inondations, aura des effets économiques sur la production hydroélectrique, sur l’érosion du sol ou sur la quantité d’eau disponible. L’augmentation de la température aura un impact sur la biodiversité – en particulier dans des zones où la végétation d’origine s’est déjà fragmentée –, ou sur l’agriculture, avec l’apparition possible de nouveaux fléaux et l’impossibilité de maintenir dans leurs régions actuelles des cultures agricoles dépendantes de climats tempérés. L’élévation probable du niveau de la mer constitue autant un risque pour les millions de Brésiliens vivant sur la côte que pour les écosystèmes côtiers. Dans le domaine de la santé, on prévoit une augmentation de maladies comme la dengue et la malaria dans les régions les plus pluvieuses, ainsi que des troubles cardiaques et respiratoires aggravés par la pollution atmosphérique. Ce sombre tableau suscite une myriade de questions pour les chercheurs. [caption id="attachment_120486" align="alignleft" width="290"]Tornade à Florianópolis Tornade à Florianópolis[/caption] Carlos Nobre énumère certaines ambitions de cet effort de recherche, dont la réduction des incertitudes sur les causes des changements climatiques au Brésil : « nous observons les changements mais nous avons du mal à définir s’il s’agit d’un effet du réchauffement global ou de la déforestation. Il y a au Brésil une altération importante de la végétation parallèlement aux phénomènes climatiques, et parfois les signaux sont trompeurs. Comme les politiques publiques ont besoin de connaissances scientifiques solides, il faut investir dans des études qui nous permettront de comprendre les causes ». Un autre point de la recherche sera le relevé des vulnérabilités du pays en face des changements climatiques dans des domaines comme la santé, l’agriculture, les ressources hydriques et les énergies renouvelables : « Nous disposons de peu de connaissances sur les impacts futurs sur la vie des personnes et sur la société. En repérant nos vulnérabilités, nous réussirons aussi à ébaucher des politiques pour une adaptation nécessaire ». Dans le but de mettre les chercheurs brésiliens en contact avec les meilleurs centres d’études sur les changements climatiques de la planète, le resserrement des collaborations internationales est un autre objectif du programme. La coopération est fondamentale ; le Programme International de Géosphère-Biosphère (IGBP) ou l’Intergouvernmental Panel on Climate Change (IPCC) sont notamment dans la ligne de mire du programme lancé par la FAPESP. D’autre part, le programme vise la connaissance et le développement sur le terrain de nouvelles technologies capables de réduire les effets des émissions de gaz à effet de serre, à l’exemple des énergies renouvelables, la possibilité d’adapter la société aux changements climatiques en incluant des partenariats avec le secteur privé. Dans le domaine de l’agriculture, une série de défis technologiques existent, telle que l’adaptation des cultures à des températures plus élevées. Selon Eduardo Assad, chercheur de l’Entreprise Brésilienne de Recherche en Agriculture et Élevage (Embrapa) et impliqué dans la coordination du programme de la FAPESP, « il existe de bonnes idées qui méritent d’être l’objet d’efforts de recherche, comme les systèmes agro-sylvo-pastoraux qui associent élevage de haute productivité, cultures agricoles et plantation d’arbres, ou les techniques comme l’arborisation de caféières [...] Nous devons également perfectionner les mesures sur la capacité de l’agriculture à séquestrer le carbone ». Un deuxième offre d’appels, d’une valeur de 2,6 millions de réais, a pour objectif spécifique de choisir un groupe de chercheurs chargé de créer le premier modèle climatique brésilien – un logiciel capable de procéder à des simulations sophistiquées sur les phénomènes climatiques. La nécessité de développer une compétence nationale se justifie : aujourd’hui, pour projeter les effets des changements climatiques on utilise des outils informatiques non spécifiques, qui sont en réalité des coupures de la prévision pour le monde entier. « Conquérir cette autonomie est stratégique pour le pays », souligne Carlos Nobre. « Le Brésil est grand, divers et il dispose d’une grande variété de climats sur son territoire. L’exploitation économique est fortement liée aux ressources naturelles, elle dépend en grande partie du climat. La capacité de faire des simulations plus spécifiques pour le Brésil et l’Amérique du Sud attestera de la bonne qualité des projections ». D’après lui, le Brésil va entrer dans le groupe restreint de pays qui ont un modèle climatique, à l’image des États-Unis, du Japon et de l’Angleterre. Grâce à cela, la communauté scientifique de ce domaine acquerra plus d’importance. Le chercheur explique que le Brésil, pour développer et affiner le modèle climatique, ne partira pas de zéro : « nous allons établir des partenariats avec deux ou trois centres les plus performants mondialement et nous pourrons choisir quelques modules de leurs modèles pour les ajouter à notre modèle. Mais nous avons l’intention de développer un modèle compétitif et adapté pour comprendre ce qui se passe dans un pays aux dimensions continentales comme le nôtre ». Selon lui, au moins quatre années seront nécessaires pour atteindre cet objectif. Brito Cruz, directeur scientifique de la FAPESP, évoque les attentes de la Fondation par rapport au modèle : « Nous aimerions qu’à un certain moment soit utilisé un scénario climatique créé par les chercheurs de São Paulo comme base pour les analyses de l’IPCC », dit-il en faisant référence au groupe de scientifiques réunis par les Nations Unies et qui actualise la connaissance sur les changements mondiaux tous les cinq ans. Pour Carlos Nobre, « l’aspect positif de l’appel d’offres est qu’il donnera lieu à des bourses de master, de doctorat et de post-doctorat. Avec cela, nous envisageons une formation de docteurs dans des domaines de grande complexité ». La création du modèle climatique brésilien sera possible grâce à un investissement d’un montant de 48 millions de réais, annoncé il y a environ deux mois. Pour la recherche sur les changements climatiques, l’Inpe va abriter l’un des plus puissants ordinateurs au monde, capable de traiter 15 trillions d’opérations mathématiques par seconde. Sur ces 48 millions de réais, 35 millions viennent du Ministère des Sciences et de la Technologie (MCT) et 13 millions de la FAPESP. L’investissement associe la priorité de l’étude sur les changements climatiques définie par le MCT et le programme de la FAPESP. Sérgio Rezende, ministre des Sciences et de la Technologie, affirme : « Avec ce type d’outil informatique extrêmement puissant, il sera possible de coordonner le climat comme jamais personne ne l’aurait imaginé il y a 60 ans ».  L’Inpe s’est offert pour accueillir le secrétariat exécutif du nouveau programme et il se prépare déjà pour recevoir le superordinateur, qui sera mis en route à partir de 2009. La machine sera installée au Centre de Prévision Météorologique et d’Études Climatiques (CPTEC) situé dans la ville de Cachoeira Paulista (Vale do Paraiba). 30 % du temps du superordinateur sera réservé aux réseaux de chercheurs de tous les domaines liés au programme, pour leur permettre de simuler les effets du climat sur la santé humaine, sur la biodiversité, sur l’agriculture et l’élevage, etc. Le directeur scientifique de la FAPESP tient à souligner le soutien offert au programme par l’Inpe : en plus de recevoir le superordinateur, l’institut mettra à disposition du personnel spécialisé pour le support informatique. Cinq chercheurs seront embauchés pour cela et ils seront coordonnés par un scientifique-chef : « il s’agit d’un niveau de soutien institutionnel particulier, rarement obtenu dans nos programmes ». Le caractère multidisciplinaire du programme impose d’autres défis. L’un des buts est de garantir l’articulation et la communication entre tous les chercheurs. « Il faut que les résultats des uns aident les résultats des autres », dit Brito Cruz. Cette stratégie répète l’expérience du Programme Biota-FAPESP qui a permis de décrire plus de 500 espèces de plantes et d’animaux disséminées sur les 250 000 km² du territoire de l’état de São Paulo. Ce programme a utilisé des protocoles d’intégration de projets pour permettre aux chercheurs de divers domaines de produire et de partager l’accès aux données recueillies sur la biodiversité de l’état de São Paulo. « Un de nos grands défis est de créer de la compétence en termes de modélisation de la biodiversité », affirme Carlos Alfredo Joly, professeur de l’Université d’État de Campinas (Unicamp), coordinateur du Biota-FAPESP et qui participe actuellement à la coordination des recherches sur la biodiversité du Programme de Changements Climatiques. « Nous sommes compétents pour faire des inventaires et pour caractériser les paysages et la perte d’habitats. Désormais nous devons intégrer ces données dans des modèles capables de simuler l’impact des changements climatiques sur les écosystèmes et sur les espèces ». Joly donne des exemples pratiques sur la manière dont la modélisation peut aider à comprendre les effets des changements climatiques : « Les changements climatiques peuvent altérer la période de floraison ou de fructification d’une espèce donnée. La modélisation mathématique permettra de faire une prévision détaillée des impacts du changement, de savoir si l’insecte ou l’oiseau pollinisateur sera présent au moment de la nouvelle floraison, s’il y aura réduction de la production de fruits et quel effet cela aura sur la survie des espèces dépendant de fruits pour se nourrir ». D’autres cibles probables pour les simulations sont les plantes ou les insectes invasifs, qui peuvent bénéficier des altérations dans les écosystèmes provoquées par les changements climatiques. Au Brésil, la biodiversité interagit très fortement et de façon complexe avec les changements climatiques : elle affecte et est affectée par ce phénomène. « La biodiversité subit sans aucun doute les conséquences des changements climatiques, qui provoquent des modifications dans les habitats et peuvent entraîner la perte d’espèces dans des paysages fragmentés », observe Joly. « D’un autre côté, la biodiversité fonctionne aussi comme un amortisseur des effets des changements. Les forêts et le plancton marin par exemple, représentent un grand stock de carbone. Si la forêt disparaît, les conséquences seront grandes. L’humidité du Centre-Ouest et du Sud-Est vient de l’Amazonie. Si la forêt disparaît, cela affectera toute la superficie agricole de ces régions ». Parmi les thèmes du programme liés à la biodiversité se distinguent notamment : la reconstruction des modèles d’occurrence de la flore et de la faune dans le passé et leurs liens avec les changements climatiques ; les effets de l’augmentation de la quantité de CO2 dans la physiologie des plantes natives ; l’impact du déboisement sur des systèmes économiques et environnementaux ; une augmentation de la densité des études sur les systèmes aquatiques. L’idée de lancer un programme pouvant intégrer des aspects multiples des changements climatiques est née du constat selon lequel la complexité des problèmes est incompatible avec le cloisonnement conventionnel des disciplines. D’autre part, l’adhésion des sciences humaines à l’effort déployé par les sciences physiques et naturelles constitue un élément essentiel pour saisir les causes et les conséquences de phénomènes qui sont, en fin de compte, provoqués par l’homme. D’après Pedro Leite da Silva Dias, professeur de l’Institut d’Astronomie, de Géophysique et de Sciences Atmosphériques de l’Université de São Paulo (USP), directeur du Laboratoire National d’Informatique Scientifique et ayant participé à la coordination du programme, « lors des discussions sur le format du programme, nous avons invité des personnes de divers domaines, comme l’économie, la santé, la biologie ou l’ingénierie, pour garantir son caractère articulé, inclusif et transversal ». Un autre diagnostic indique que bien qu’il possède une masse critique sur le thème dans le champ des sciences naturelles, le Brésil pâtit d’un manque d’effort coordonné capable de réunir ses scientifiques et de produire des résultats plus globaux. « Le Brésil ne fait pas de petites recherches dans ce domaine. C’est l’un des leaders, même s’il souffre d’un manque d’articulation important entre les chercheurs », souligne Paulo Artaxo, professeur de l’Institut de Physique de l’Université de São Paulo (USP) et coordinateur de la partie du programme qui s’occupe du bilan sur la radiation atmosphérique et du rôle des aérosols. Artaxo se réfère notamment à la participation active de divers chercheurs brésiliens au sein de l’IPCC – Carlos Nobre et lui-même en sont des exemples. L’importance de la recherche brésilienne est également soulignée par Nobre : « Sur les 20 principales revues internationales, 1,5 % des articles sur la science du climat ou sur des thèmes disciplinaires liés sont écrits par des Brésiliens, et deux tiers ont été produits à São Paulo. Cet indice est un peu en deçà de la moyenne de la production universitaire brésilienne dans des revues indexées internationalement, responsable de 2 % du total, mais elle demeure importante ». Parmi les rares exceptions à la règle du manque de coordination, on peut évoquer le programme Biota-FAPESP, qui a rassemblé des chercheurs de différents domaines, et le Projet à Grande Échelle de la Biosphère-Atmosphère de l’Amazonie (LBA), qui a généré une quantité énorme d’informations sur les interactions entre l’Amazonie et le système climatique mondial. Pour Pedro Leite da Silva Dias, « nous aurons la chance d’utiliser des données recueillies par le LBA et d’autres programmes pour les utiliser dans des simulations informatiques qui permettent de réaliser des études sur, par exemple, l’interaction entre la forêt amazonienne, le Pantanal et le climat ». L’une des innovations du programme est d’inviter des chercheurs des sciences humaines à participer. « Nous sommes très curieux de voir les propositions qui seront présentées », observe le démographe Daniel Joseph Hogan, professeur de l’Unicamp qui travaille au Centre d’Études sur la Population et d’Études et Recherches Environnementales de l’université. Hogan coordonne la recherche sur les dimensions humaines des changements climatiques. Il prédit quelques-uns des thèmes qui pourront surgir : « Il serait intéressant par exemple d’avoir des chercheurs du domaine des relations internationales qui présentent des projets sur les traités et les organismes supranationaux traitant des changements climatiques, pour voir comment ils défient le concept établi de souveraineté nationale ». Les questions de sécurité alimentaire, d’urbanisation et de transformation technologique de l’industrie en quête de durabilité sont d’autres sujets émergents. Hogan rappelle que les scientifiques sociaux ont mis du temps à s’intéresser aux effets du réchauffement de la planète et qu’il a fallu l’appel de leurs collègues des sciences naturelles : « Les sociologues et les anthropologues ont du mal à aborder, sous une perspective à long terme, des phénomènes qui ne se sont pas encore produits. Ils sont plus habitués à le faire avec des phénomènes du passé ». L’une des références du Programme de Recherche sur les Changements Climatiques Mondiaux est l’International Human Dimensions Program (IHDP), créé en 1990 pour développer des programmes de recherche sur des thèmes critiques pour la compréhension de l’influence de l’homme sur le changement mondial et les conséquences de ces changements sur la société humaine. Bien que d’autres pays devancent de loin le Brésil en matière d’études sur les dimensions humaines, Hogan observe que le degré de sophistication de ces recherches ne se situe pas au même niveau que celles de domaines comme la physique ou la météorologie, par exemple : « Il suffit de comparer les quatre comptes rendus de l’IPCC de l’an dernier. Le premier texte, qui porte sur la base scientifique accumulée sur le thème, a eu le plus de répercussion car il a réussi à définir les causes et les effets futurs des changements climatiques avec un degré de certitude élevé. Les autres textes, qui abordaient les dimensions humaines, étaient moins décisifs ». D’après lui, certaines généralisations calquées sur le sens commun ont besoin d’être analysées, à l’exemple de l’idée selon laquelle les pauvres souffriront davantage des changements climatiques. « Les pics de chaleur affectent surtout les jeunes enfants et les personnes âgées. Il faut créer des stratégies dans le champ des politiques publiques pour affronter ces événements extrêmes. Cela implique une préparation pour agir avant et après l’événement. Le Brésil n’en est encore qu’à ses premiers pas ». En ce qui concerne la santé humaine, Paulo Saldiva, coordinateur de cette section et professeur de la Faculté de Médecine de l’USP, prévoit une construction complexe des réseaux de chercheurs : « L’approche est très différente des recherches traditionnelles sur la santé. Nous ne souhaitons pas seulement recueillir des données épidémiologiques ou évaluer des risques, nous voulons aussi intégrer des spécialistes en anthropologie, en gestion de la santé ou en urbanisation. [...] Nous sommes en train de parler de phénomènes complexes. L’élévation de la température aura des impacts sur la santé parce qu’elle changera aussi la dynamique des villes. Il est possible que les habitants des zones rurales aient besoin d’émigrer vers les villes, avec une augmentation des bidonvilles et du coût de la santé. Je compare le défi à celui qui consiste à faire face aux maladies provoquées par la pollution à São Paulo. La médecine offre des outils incomplets pour affronter le problème, qui est devenu une question de planification urbaine ». Le professeur espère que surgiront des projets sur plusieurs de ces thèmes : « Si ce sont des propositions isolées, nous ferons en sorte de les intégrer et de faire travailler les chercheurs en réseau ». Carlos Nobre, le coordinateur du programme, pense que le projet se mettra en route plus vite si la majorité des propositions présentées est déjà imprégnée de l’esprit d’interdisciplinarité qui caractérise le programme : « Il n’y a pas de limites pour les propositions. Elles peuvent concerner des recherches de base ou des recherches appliquées, sans restrictions. Le défi est que les groupes discutent entre eux. Plus les projets seront interinstitutionnels, plus la chance de réussite sera grande ».  Lors du lancement du programme, le secrétaire de l’environnement de São Paulo, Xico Graziano, a annoncé que le gouvernement de l’état allait envoyer à la Chambre des Députés un projet de loi sur les changements climatiques ; ce projet proposera des actions de réduction de l’émission de gaz dans l’état. Présent le jour de la cérémonie, l’ancien président de la République Fernando Henrique Cardoso a rappelé que l’effort des scientifiques devait également être d’informer et de faire participer la société, afin que la connaissance produite se transforme en actions concrètes : « Sans la pression de la société, il n’y a pas de revendication et les choses se passent plus difficilement. Même aux États-Unis, dont la posture est réactionnaire, les états, les municipalités et les entreprises ont pris des décisions pour contrôler les émissions de gaz à effet de serre à l’encontre de Washington, parce que la base de la société participe au processus de compréhension des effets du réchauffement de la planète ». En vue de diffuser l’initiative et d’inciter à des partenariats internationaux, Fernando Henrique Cardoso a remis une copie du programme de la FAPESP à l’ancien président chilien Ricardo Lagos, actuel représentant de l’Organisation des Nations Unies (ONU) sur la question des changements climatiques. [post_title] => Atmosphère d´union [post_excerpt] => Atmosphère d´union [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => atmosphere-d%c2%b4union [to_ping] => [pinged] => [post_modified] => 2013-06-05 16:10:20 [post_modified_gmt] => 2013-06-05 19:10:20 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=119815 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [2] => stdClass Object ( [ID] => 119829 [post_author] => 11 [post_date] => 2013-06-04 12:59:33 [post_date_gmt] => 2013-06-04 15:59:33 [post_content] => Publié en février 2009 La communauté universitaire britannique vit un moment d’expectative. Les résultats du sixième Research Assessment Exercise (RAE 2008) ont été présentés en 2008. Il s’agit d’une vaste évaluation de la qualité de la recherche qui orientera le versement de 2,3 milliards de dollars annuels de fonds publics entre les différentes universités britanniques de 2009 à 2014. 52 400 chercheurs appartenant à 159 institutions d’enseignement supérieur ont été évalués. On a constaté que 17 % des recherches menées sont à la pointe de la recherche mondiale ; 37 % se situent dans la catégorie d’excellence internationale; 33 % sont reconnues sur le plan international; 11 % sur le plan national, et 2 % sont en dessous du niveau exigé par le Royaume-Uni. «Cette évaluation représente une étape importante et confirme que nous sommes une grande puissance mondiale en matière de recherche» a déclaré David Eastwood, lors de l’annonce des résultats. Ce dernier est le directeur exécutif du Higher Education Funding Council for England (Hefce), un des organismes qui a réalisé cette analyse. «Parmi les 159 institutions analysées, 150 mènent des recherches de niveau international» déclare-t-il. Bien que le RAE 2008 ne propose pas un classement des meilleures institutions, une analyse de données réalisée par le Times Higher Education montre que les meilleures universités sont celles de Cambridge et d’Oxford, suivies par la London School of Economics et par l’Imperial College. Certaines institutions ont amélioré leurs performances par rapport au RAE précédent réalisé en 2001. C’est le cas de l’Université Queen Mary de Londres, qui est passée de la 48ème à la 13ème place. D’autres ont enregistré de mauvaises performances comme l’Université de Warwick qui est passée de la 6ème à la 9ème place. Les universités devront cependant attendre le 4 mars pour connaître celles qui gagneront des fonds et celles qui vont en perdre, car cette analyse tiendra compte de la qualité de la recherche menée et du nombre de chercheurs dans chaque institution. L’Université de Cardiff, par exemple, est passée de la 8ème à la 22ème place, mais il est probable qu’elle ne sera pas pénalisée car le nombre de chercheurs évalués par le RAE 2008 est plus important que lors de la précédente évaluation. On s’attend quand même à des ondes de choc dans les institutions mal notées et qui se sont traduiront par des licenciements comme pour les évaluations précédentes. Le RAE possède une méthodologie sophistiquée basée sur un système d’évaluation double, utilisant des consultants britanniques et étrangers. De par son importance, l’évaluation de 2008 a coûté 17 millions de dollars contre 8 millions de dollars en 2001. Elle se base sur 15 panels qui supervisent le travail de 67 sous-panels de disciplines. 950 réviseurs ont participé à ce processus. Les comités principaux comptent sur la participation d’au moins un chercheur étranger. «L’objectif n’est pas de comparer l’analyse des membres britanniques et étrangers, mais de s’assurer que les niveaux de qualité exigés sont appropriés», déclare Ed Hughes, du Hefce, et coordonnateur du RAE 2008. «Dans de nombreuses situations, les spécialistes internationaux nous aident à définir des paramètres. Ils doivent garantir une crédibilité internationale». Conséquences Le modèle britannique est différent du système développé au Brésil par la Coordination Nationale de Perfectionnement du Personnel de Niveau Supérieur (Capes) qui, depuis les années 70, évalue les programmes du 3ème cycle universitaire stricto sensu en analysant les objectifs et les conséquences des processus d’évaluation. Au Brésil, l’évaluation triennale de master, master professionnelle et de doctorat ne cherche pas seulement à mesurer la qualité des programmes mais encourage leur développement qui orientera le financement de bourses et reconnaîtra l’excellence des groupes de recherche impliqués. Certains cours ne sont supprimés que dans des situations extrêmes et des programmes ayant des notes moyennes mais régulières sont autorisés à former des maîtres et des docteurs, bien que parfois leur prestige en pâtisse. Le RAE a un impact immédiat et parfois dévastateur car c’est un indicateur pour l’allocation de ressources destinées aux universités britanniques. Une mauvaise évaluation signifie moins de financement durant une longue période. «En se basant sur le RAE, les universités peuvent être amenées à supprimer certains départements comme cela s’est produit lors du premier RAE», affirme Lea Velho, professeur du Département de Politique Scientifique et Technologique de l’Institut de Géosciences de l’Université Publique de Campinas (Unicamp). «Les sanctions sont réelles pour les départements ayant eu une mauvaise évaluation», déclare-t-il. Bien que les deux modèles tiennent compte de données quantitatives et bénéficient d’une double évaluation, les méthodologies utilisées par la Capes et par le Hefce britannique sont différentes. Le RAE n’évalue qu’une partie de la production académique des universités considérée importante par chaque département. Chaque chercheur doit indiquer quatre lignes de recherches maximum auxquelles il a participé au cours de la période. Pour la Capes, les programmes de maîtrise et de doctorat stricto sensu doivent présenter chaque année de nombreuses informations concernant la production scientifique des professeurs et des étudiants, la formation des professeurs et la qualité de l’enseignement dispensé. Cet ensemble d’informations est la base de l’évaluation triennale. Dans l’exemple britannique, l’évaluation des pairs est primordiale. Les réviseurs doivent lire et analyser les travaux scientifiques choisis par chaque département avant de se prononcer. Dans des cas exceptionnels, certains comités s’abstiennent d’analyser les travaux de manière détaillée quand ils peuvent se baser sur des révisions déjà faites par d’autres spécialistes et non à l’aide de données bibliométriques. L’item concernant les critères d’évaluation stipule «qu’aucun critère ne sera influencé par des facteurs externes, comme la publication d’articles, pour évaluer la qualité des travaux». L’analyse se base sur trois aspects. Le premier concerne les résultats obtenus par la recherche académique en termes d’articles, de livres, de rapports techniques, de brevets déposés, entre autres. Le deuxième est relatif à l’environnement de recherche et se base sur certaines données comme le nombre de bourses, le financement obtenu ou le soutien institutionnel à la recherche. Le troisième correspond aux indicateurs de prestige (quatre maximum pour chaque chercheur) comme les récompenses et les distinctions obtenues, l’organisation de congrès et la rédaction d’article scientifiques, entre autres. Chaque comité analyse la qualité de cet ensemble d’informations et les résultats déterminent un profil général noté de cette manière : 0 (en dessous du niveau national); 1 (reconnu sur le plan national); 2 (reconnu sur le plan international); 3 (d'excellence internationale); et 4 (de recherche de pointe mondiale). Cette méthodologie a remplacé les RAE précédents qui totalisaient les points obtenus dans les différentes catégories. «L’objectif est d’éviter les écarts de financement quand un département noté 5+ reçoit davantage de fonds qu’un autre évalué 5 car les différences entre les deux sont minimes», déclare Ed Hughes. Les critères bibliométriques ont une grande importance pour la Capes même si l’évaluation dépend de comités de spécialistes. Les principaux articles scientifiques ont été classés selon l’importance des revues (lire: facteur d’impact) et leur portée (locale, nationale et internationale). Ce système, appelé Qualis, sert à évaluer les articles scientifiques publiés et justifie une part significative du processus d’évaluation, surtout dans des domaines où la production académique s’exprime principalement par des articles publiés dans des revues. Une contribution modeste publiée dans une revue renommée est plus importante qu’une production plus large publiée dans une revue d’un impact limité, selon les critères des comités d’évaluation. Les informations recueillies sont soumises aux comités respectifs qui utilisent des critères spécifiques à chaque domaine pour analyser ces informations. Les programmes reçoivent une note de 1 à 5. Ces analyses sont publiées sur des listes communes pour favoriser la transparence en exigeant que les comités tiennent compte d’un ensemble standardisé d’informations comme : le nombre de professeurs, la quantité de thèses et de dissertations soutenues, les articles publiés dans des revues scientifiques nationales et internationales, les travaux publiés dans les annales d’événements nationaux et internationaux, les livres et les chapitres de livres. Une analyse qualitative peut également être demandée comme, par exemple, l’évaluation de livres ou de chapitres de livres qui sont nombreux dans le domaine des sciences humaines, en fonction de l’absence d’indicateurs pour évaluer leur qualité. Les programmes de doctorat ayant obtenu la note maximale (5) sont parfois soumis à une deuxième étape d’évaluation plus qualitative. Ils peuvent être réévalués et obtenir la note 6 ou 7 en fonction de certains indicateurs comme le potentiel scientifique des groupes de recherche ou leur insertion internationale, mesuré par l’existence d’accords internationaux, la présence de professeurs visiteurs provenant d’universités étrangères réputées, les échanges d’étudiants entre universités, la participation de professeurs dans des comités et à la direction d’associations internationales, entre autres. Les évaluateurs sont choisis de manière différente dans les deux méthodologies. Dans le cas du RAE 2008, une sélection a eu lieu pour désigner les membres, les chefs des panels et des sous-panels. Ils ont été choisis par des représentants d’agences de financement à l’aide des 4 948 indications proposées par 1 371 institutions et sociétés scientifiques (les universités ne peuvent pas indiquer de membres). Les coordonnateurs de comités choisis par la Capes peuvent suggérer les noms de personne avec qui ils veulent travailler, conformément à leurs compétences. Ces personnes indiquées doivent être approuvées par la direction d’évaluation de l’agence. 700 réviseurs ont participé à la dernière évaluation triennale. La moitié des membres de chaque comité doit être renouvelée tous les 3 ans. Citations Le RAE 2008 sera la dernière évaluation britannique à suivre ce modèle. Le gouvernement britannique a décidé d’utiliser un nouveau système afin de réduire les coûts et d’améliorer l’évaluation. Le nouveau modèle appelé Research Excellence Framework (REF) utilisera toujours l’évaluation des pairs mais aussi de nombreux indicateurs bibliométriques, comme le nombre de citations de scientifiques dans les revues. «Les éléments qui seront utilisés et leur importance varieront selon les caractéristiques de chaque domaine de la connaissance», déclare Ed Hughes. Le Hefce développe une étude pilote dans 22 domaines de la connaissance pour comparer les résultats du RAE 2008 avec la nouvelle méthodologie utilisée par le modèle REF. Ce changement divise la communauté scientifique britannique car les méthodes qui seront adoptées ne sont pas encore clairement définies. «Les citations prises de manière isolée se sont avérées insuffisantes pour mesurer la qualité de la recherche», affirme la revue Nature dans un éditorial sur les changements climatiques publié le 1er janvier. La revue cite une étude de 1998 qui compare les résultats de deux analyses d’un ensemble d’articles dans le domaine de la physique, l’une utilisant le nombre de citations et l’autre basée sur l’évaluation des pairs. Les différences observées concernent 25 % des articles analysés. «Les décideurs politiques sont obligés de reconnaître que la révision faite par des spécialistes est primordiale dans l’évaluation», déclare la revue Nature. Un rapport présenté en 2003 au Hefce, par les chercheurs Nick von Tunzelman, de l’Université de Sussex, et Erika Kraemer-Mbula, de l’Université de Brighton, indique que malgré les critiques à l’encontre du système d’évaluation des pairs, peu de pays ont adopté des systèmes quantitatifs purs pour évaluer la recherche et quand c’est le cas, comme en Flandres, en Belgique, ce système est controversé. Il faut trouver le juste équilibre. «Le nouveau modèle utilisera toujours l’évaluation des pairs mais nous devons créer un système plus simple et plus efficace sans perdre la valeur ajoutée acquise grâce au processus d’analyse rigoureux utilisé dans les RAE», déclare Ed Hughes.   [post_title] => Le mérite mesuré [post_excerpt] => Le mérite mesuré [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => le-merite-mesure [to_ping] => [pinged] => [post_modified] => 2013-06-05 16:13:33 [post_modified_gmt] => 2013-06-05 19:13:33 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=119829 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) ) [sciences] => Array ( [0] => stdClass Object ( [ID] => 119924 [post_author] => 3 [post_date] => 2013-06-04 15:38:38 [post_date_gmt] => 2013-06-04 18:38:38 [post_content] => Publié Avril 2008 [caption id="attachment_120495" align="alignright" width="299"]Un macrophage (en vert) capture des bactéries dans les poumons Un macrophage (en vert) capture des bactéries dans les poumons[/caption] Il faut être prudent en tournant ces pages car si vous vous coupez le doigt sur le bord d’une feuille, des bactéries entreront par la blessure et y déclencheront une bataille. Dans ce cas précis, des cellules de défense des tissus, comme les macrophages, détectent les bactéries intruses, les englobent et les détruisent. Ce processus libère autour des cellules une série de substances (comme les morceaux de mie de pain du conte le petit poucet) qui montrent le chemin de la lésion aux leucocytes, cellules de défense qui patrouillent dans le courant sanguin. Si tout se passe bien, l’infection sera contrôlée et passera inaperçue. Cependant, quand il y a trop de bactéries ou quand le système immunitaire est compromis, les bactéries et l’inflammation se répandent dans l’organisme et provoquent une infection généralisée appelée sepsis. C’est la deuxième cause de décès dans les Unités de Thérapies Intensives (UTI) aux États-Unis qui enregistrent plus de 700 000 cas par an et dont 30 % ont une issue fatale. L’équipe du pharmacologue Fernando de Queiróz Cunha, de la Faculté de Médecine de l’Université de São Paulo à Ribeirão Preto (USP-RP), est en train de dévoiler la bataille que livre le système immunitaire contre le sepsis et montre la voie pour la mise au point de nouveaux médicaments. Le travail de Cunha explique de manière détaillée comment fonctionne la réponse immunitaire. Dans une réaction inflammatoire, les substances de signalisation avancent jusqu’au vaisseau sanguin le plus proche, s’unissent aux cellules de la paroi et envoient des signaux à l’intérieur. Les leucocytes roulent alors à l’intérieur de la paroi du vaisseau jusqu’à trouver une brèche, par où ils sortent. Ils suivent ensuite la piste chimique jusqu’à l’infection et se joignent aux macrophages pour combattre les bactéries qu’ils détruisent avec des substances comme l’oxyde nitrique. Les substances qui sont libérées au cours de ce processus provoquent également une réaction inflammatoire qui agresse les tissus. Quand les bactéries gagnent la bataille et se disséminent dans l’organisme créant un cadre clinique de sepsis, le système immunitaire continue de lutter. Dans un dernier effort pour contenir l’infection, la propre inflammation se généralise provoquant une chute de la pression artérielle et, finalement, le dysfonctionnement de multiples organes. Ce cadre clinique est actuellement connu sous le nom de sepsis (le terme septicémie étant tombé en désuétude chez les spécialistes). La moitié des personnes qui arrivent à ce stade décèdent. Il y a environ 10 ans, la communauté scientifique a été très surprise de constater que les bactéries n’étaient pas le problème le plus sérieux. Les plus grands dégâts se produisent quand le processus inflammatoire (arme précieuse quand il s’agit de lutter contre les bactéries) se retourne contre le propre organisme à l’image de certaines maladies comme la goutte, l’arthrite et la sclérose multiple. Selon toute logique il fallait donc bloquer l’inflammation pour contenir le sepsis. Des chercheurs nord-américains ont testé cette alternative, mais, en l’absence de réaction inflammatoire, la lutte contre le foyer infectieux s’interrompt et les bactéries se répandent sans rencontrer de résistance. L’équipe de Ribeirão Preto a créé un projet de recherche en 3 volets pour combattre le sepsis de manière efficace. Le médecin pharmacologue Sérgio Henrique Ferreira, coordonnateur du projet, est responsable de l’analyse des mécanismes qui provoquent la douleur dans le processus inflammatoire. Cunha est chargé d’étudier le processus menant au sepsis et à la migration de leucocytes vers le foyer infectieux et a découvert que le rôle de l’oxyde nitrique, utilisé par les leucocytes pour tuer les bactéries, est essentiel pour le choc septique. Cette substance contribue aux mécanismes de défense dans les vaisseaux, car elle induit la relaxation des muscles vasculaires, favorisant ainsi un plus grand volume sanguin qui transporte davantage de leucocytes vers le foyer infectieux. Cependant, dans le cas du sepsis, la production d’oxyde nitrique devient désordonnée et atteint parfois une quantité mille fois plus élevée que le taux normal, entraînant une chute radicale de la pression artérielle. Cette découverte a permis de proposer un traitement pour inhiber la production d’oxyde nitrique chez le patient. Cependant, ce qui semblait être à la base une bonne idée, a déclenché une série de nouveaux problèmes, car sans oxyde nitrique les neutrophiles perdent leur principal agent microbicide et n’arrivent plus à combattre l’infection. Cunha a également découvert qu’un excès d’oxyde nitrique inhibe aussi la migration des cellules. «Les leucocytes n’adhèrent plus à la paroi des vaisseaux, ne se déplacent plus et ne répondent plus au gradient de médiateurs inflammatoires», déclare-t-il. L’équipe de Cunha a décrit ce phénomène dans des articles publiés en 2006 par les revues internationales Shock, Blood et Critical Care Medicine. Les processus biochimiques et les protéines (qui donnent aux cellules un mouvement identique à celui des limaces) ne fonctionnent plus en présence de teneurs élevées d’oxyde nitrique. L’équipe de Ribeirão Preto a également démontré, dans un article publié en 2007 dans la revue American Journal of Respiratory and Critical Care Medicine, que l’oxyde nitrique inhibe l’action de récepteurs à la surface des neutrophiles qui perdent leur sensibilité aux médiateurs inflammatoires. La vie du patient est donc mise en danger car le système immunitaire est paralysé. Cette découverte a orienté les nouvelles recherches de l’équipe de Cunha. «Si nous rétablissons les mécanismes de migration, l’infection sera contrôlée», déclare-t-il. Ils sont donc actuellement en train de mener des recherches sur une substance essentielle à la chaine biochimique, l’acide sulfidrique, également appelé hydrogène sulfuré (H2S) et gaz responsable de la mauvaise odeur dégagée par les œufs pourris. La migration cellulaire est paralysée quand la synthèse de cet acide est interrompue dans les leucocytes. Les chercheurs ont découvert qu’en rendant du H2S au milieu cellulaire, les cellules de défense se remettaient à rouler dans les parois des vaisseaux sanguins. Le pharmacologue de Ribeirão Preto est en train de rédiger un article sur cette nouvelle approche qui sera prochainement publiée. Selon lui, les résultats poussent à l’optimisme et cette nouvelle compréhension du sepsis permettra peut-être prochainement de sauver des vies. Pour l’instant le choc septique est toujours un problème de santé publique insoluble qui s’aggrave avec le vieillissement de la population, car le nombre de patients entrant en sepsis dans les UTI augmente chaque année. Un article publié en 2006 par la revue Endocrine, Metabolic & Immune Disorders, Drug Targets, sous l’égide d’Eliézer Silva, médecin du Centre de Thérapie Intensive de l’hôpital israélite Albert Einstein à São Paulo et président de l’Institut Latino-américain d’Etudes du Sepsis (Ilas), compare l’impact du sepsis entre différents pays et montre qu’environ 10 % des personnes admises dans une UTI nord-américaine ont un choc septique. Au Brésil, Silva a coordonné une étude appelée Bases (étude épidémiologique du sepsis au Brésil), qui a évalué 1 383 patients hospitalisés dans cinq UTI brésiliennes. Cette étude publiée en 2004 dans la revue Critical Care Medicine est l’une des plus complètes du pays et constate qu’environ 30 % de ces patients entrent en sepsis et 50 % évoluent vers un choc septique. Les soins médicaux intensifs n’ont pu sauver que la moitié des patients souffrant de sepsis. L’Association Brésilienne de Thérapie Intensive a promu une autre étude appelée Sepsis Brésil, qui a évalué davantage d’UTI avec des résultats identiques à ceux obtenus par Silva. Le système de santé brésilien a dépensé 41 milliards de R$ en thérapies intensives en 2003, desquels plus de 17 milliards étaient destinés aux 400 mille patients septiques, selon les données de l’Ilas. Malgré ces efforts, les résultats ont été plus qu’insuffisants car environ 227 mille patients sont mort de sepsis grave, engloutissant un investissement d’environ 10 milliards de R$. L’Ilas a adhéré à la campagne internationale «Survivant au Sepsis» en 2005, afin de réduire d’au moins 25 % jusqu’en 2009 le nombre de décès dû aux chocs septiques, rejoignant les 48 pays qui sont en train d’établir des directives internationales pour le traitement des patients septiques. Les participants de cette campagne envoient des informations qui alimentent une banque de données internationale afin d’en contrôler et d’en optimiser les résultats. Le Brésil est l’un des pays qui contribuent le plus à cette banque de données avec 50 institutions participantes. «La principale difficulté concerne le changement de culture», déclare Eliézer Silva, qui a publié en 2006 à la maison d’édition Atheneu un manuel destiné à la formation de professionnels qui aborde un nouveau concept en mettant l’accent sur le facteur temps. Les nouvelles directives déterminent que dès qu’un patient souffrant de sepsis grave arrive aux urgences d’un hôpital, il faut immédiatement réaliser un prélèvement sanguin pour identifier le germe vecteur de l’infection. Il est ensuite essentiel au cours des 6 premières heures de prescrire des antibiotiques, du sérum physiologique en grande quantité et une médication afin de stabiliser la pression artérielle. Selon l’évolution du cadre clinique, une autre série de mesures seront nécessaires jusqu’à la 24ème heure du traitement comme la prescription de corticoïdes et de protéines C activées, le contrôle de la glycémie et, quand la patient a des difficultés respiratoires, la ventilation nécessaire pour maintenir la pression de l’oxygène au niveau approprié. Les données les plus récentes, encore non publiées, montrent que le nombre de décès mesurable et dû au sepsis a reculé de 7 % dans le monde entier au cours de cette campagne. Selon Fernando de Queiróz Cunha, les patients qui quittent l’hôpital ne sont pas pour autant tirés d’affaire. Il a en effet démontré, grâce à des recherches menées sur des souris et qui n’ont pas encore été publiées, que le sepsis débilite le système immunitaire. Le pharmacologue a constaté que 15 jours après la crise septique, il suffisait de vaporiser des bactéries près du museau des souris (comme quand on est en contact avec une personne enrhumée) pour provoquer leur mort. Les travaux de Silva et de Cunha montrent clairement qu’il est nécessaire d’associer la recherche de base, clinique et médicale aux politiques publiques afin de vaincre la bataille contre le sepsis. Le Projet Médiateurs responsables de la douleur, de la migration de leucocytes et du sepsis Modalité Projet thématique Coordonnateur Sergio Henrique Ferreira – USP/Ribeirão Preto Investissement R$ 2.277.550,31 Articles scientifiques 1. RIOS-SANTOS, F. et al. Downregulation of CXCR2 on neutrophils in severe sepsis is mediated by inducible nitric oxide synthase-derived nitric oxide. American Journal of Respiratory and Critical Care Medicine. v. 175, pp. 490-497, 2007. 2. TORRES-DUEÑAS, D. et al. Failure of neutrophil migration to infectious focus and cardiovascular changes on sepsis in rats: effects of the inhibition of nitric oxide production, removal of infectious focus, and antimicrobial treat ment. Shock. v. 25, n. 3, pp. 267-276, 2006. [post_title] => Guerre dans les cellules [post_excerpt] => Guerre dans les cellules [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => guerre-dans-les-cellules [to_ping] => [pinged] => [post_modified] => 2013-06-06 12:12:36 [post_modified_gmt] => 2013-06-06 15:12:36 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=119924 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [1] => stdClass Object ( [ID] => 119954 [post_author] => 3 [post_date] => 2013-06-04 15:57:07 [post_date_gmt] => 2013-06-04 18:57:07 [post_content] => Publié en Novembre 2008 [caption id="attachment_120499" align="alignright" width="299"]Guêpe Polybia ignobilis Guêpe Polybia ignobilis[/caption] L’expression «tomber dans un nid de guêpes» indique de sérieux problèmes et s’applique également aux abeilles. Il s’agit d’insectes sociaux qui travaillent en équipe même quand il s’agit de se défendre contre leurs ennemis. C’est pour cela qu’une personne qui heurte un de ces nids a de grandes chances de se retrouver à l’hôpital avec des centaines de dards incrustés dans la peau. Ces derniers diffusent des toxines dans le courant sanguin, qui pendant des jours vont endommager le foie, les reins et le cœur, dissolvant la matrice qui unit les cellules et déclenchant des problèmes chroniques. «Nous ne comprenons que maintenant comment le venin de ces insectes fonctionne», déclare le biochimiste Mário Palma, du Centre d’Études des Insectes Sociaux (Ceis) de’ Université Publique Pauliste (Unesp) de Rio Claro. Il a fait appel à l’Université de São Paulo (USP) et à l’Institut Butantan pour monter une équipe qui a été la première à mettre au point fois un vaccin contre les piqûres d’abeilles. Selon Palma, la difficulté pour mettre au point un vaccin spécifique contre les piqûres d’insectes découle d’une méconnaissance de la composition chimique de ces substances. «À l’inverse de ce qui se produit avec le venin de serpent, composé de protéines complexes, 70 % des venins d’abeilles et de guêpes sont composés de peptides», déclare-t-il. Il s’agit de molécules apparentées aux protéines, mais plus petites. Il s’est tout d’abord aperçu que ces venins agissaient de manière différente. Une victime de morsure de serpents (principalement les rongeurs dont ils s’alimentent) meurt rapidement. Il s’agit, en fin de comptes, d’une stratégie de chasse, à l’inverse des abeilles et des guêpes qui utilisent leur venin comme défense. Les fragiles dards, efficaces uniquement sur la peau tendre du museau de singes à la recherche de miel, sur un oiseau amateur d’insectes ou sur une personne imprévoyante, laissent un souvenir douloureux et signalent l’endroit à éviter. Le Ministère de la Santé prévoit qu’entre 10 mille à 15 mille personnes seront piquées cette année par des abeilles et des guêpes. Il s’agit certainement d’un chiffre sous-estimé car les personnes souffrant d’une seule piqûre et n’ayant pas de fortes réactions allergiques ne feront pas appel aux services médicaux. La plupart des patients survit, contrairement aux victimes de morsures de serpents (plus 20 mille morsures par an dans le pays). Cependant les petites molécules de venin d’insectes se répandent avec facilité dans l’organisme. C’est pour cette raison que 98 % des personnes victimes de multiples piqûres souffrent de séquelles chroniques aux reins et au foie. La méthode utilisée pour mettre au point des vaccins se basait jusqu’à présent sur des tentatives et souvent des échecs car on produisait le vaccin et on testait directement son effet. «Chaque fois que le vaccin ne fonctionne pas on perd un patient», déclare le chercheur de l’Unesp. C’est une chose à éviter, même lorsqu’il s’agit de tests sur des souris de laboratoire, mais personne n’était encore parvenu à développer des tests in vitro afin d’évaluer leur efficacité. Palma a donc décidé de créer un laboratoire de pointe destiné à l’analyse des protéines, grâce à un projet en bioprospection financé par la FAPESP. Le résultat est surprenant car en quatre ans, son élève de doctorat Keity Souza Santos, également orientée par Fábio Castro, a découvert environ 200 composés chimiques dans le venin des abeilles outre les cinq protéines déjà connues. Cette découverte n’était qu’une première étape car il fallait maintenant que les chercheurs analysent son effet sur l’organisme. À ce stade des recherches, la collaboration avec l’équipe de l’Hôpital des Cliniques (HC) de l’USP, menée par l’immunologiste Jorge Kalil et par l’allergologiste Fábio Castro, a été fondamentale. En traitant des personnes victimes de piqûres d’abeilles ou de guêpes, les médecins ont répertorié environ 50 symptômes comme la douleur, les rougeurs, les tuméfactions, les démangeaisons, la vue qui s’assombrit, la perte de conscience, les jambes lourdes et la perte de mémoire. Le croisement de ces données et de la liste de peptides et des protéines du venin a permis d’évaluer l’action de chaque élément sur l’organisme humain. Production Palma, avec la collaboration de l’Institut Butantan qui produit 80 % des sérums et vaccins utilisés dans le pays, a injecté du venin d’abeille sur des chevaux pour ensuite extraire les anticorps produits par ces animaux. Il a ensuite vérifié si les anticorps des chevaux neutralisaient tous les éléments toxique du venin, et détecter ainsi les défenses qui manquaient. «D’après ce que nous savons, personne n’avait encore utilisé cette technique de recherche d’anticorps contre chaque protéine», déclare-t-il. Avant sa formule finale, le vaccin a du passer au crible du pharmacien Marco Antonio Stephano, de la Faculté de Sciences Pharmaceutiques de l’USP, et spécialiste en contrôle de qualité. «Nous avons gardé le secret absolu pendant quatre ans de travail jusqu’au dépôt de brevet», déclare Palma. La formule étant prête, une équipe de l’Institut Butantan menée par Hisako Higashi est en train de produire des lots de vaccin qui seront testés à l’Hôpital Vital Brazil de l’Institut Butantan, centre national de référence pour le traitement des victimes d’animaux venimeux. La chercheuse pense que le vaccin sera utilisé dans des tests cliniques d’ici 6 mois environ. Outre l’analyse de protéines, l’Unesp fournit une grande quantité de venin d’abeille destinée à la production du vaccin. L’université possède une ferme d’abeilles sous la responsabilité du biologiste Osmar Malaspina du Ceis. Pour prélever le venin d’abeille, il place une plaque de verre couverte d’une grille électrifiée à l’entrée des ruches. Quand les abeilles s’y posent, elles reçoivent une décharge électrique à laquelle elles réagissent en piquant la plaque de verre. Elles ne perdent pas leur dard et laissent une goutte de venin. Grâce à cette méthode automatisée, Malaspina récupère une quantité suffisante de venin pour produire le vaccin. Dès que le produit sera approuvé, il sera distribué sur tout le réseau public. Palma souligne qu’il s’agit d’un projet gouvernemental car il a été financé par des agences nationales de soutien à la recherche (FAPESP, CNPq, Finep), et réalisé par l’Institut Butantan, lié au Secrétariat de la Santé de São Paulo. Le succès de cette première étape a donné l’élan nécessaire au chercheur de l’Unesp pour poursuivre ses recherches. Le vaccin qu’il a mis au point fonctionne contre les abeilles brésiliennes, mais il a déjà reçu des échantillons de venin d’abeille provenant d’autres endroits du monde pour vérifier si cette méthode fonctionne également contre d’autres sous-espèces d’Apis mellifera, présentes sur 75 % du globe. Si cela fonctionne, Palma pense que le Brésil pourrait devenir le premier producteur et exportateur mondial de vaccin contre les piqûres d’abeilles. L’équipe n’oublie pas que les abeilles sont accusées à tort de piqûres qui en fait sont dues aux guêpes, qui ont un venin différent et non neutralisé par le vaccin contre les abeilles. Palma et Malaspina ont sélectionné 12 espèces de guêpes responsables d’une bonne partie des accidents. Le groupe de Rio Claro est déjà en train d’analyser les peptides et les protéines du venin de ces guêpes à la recherche d’un vaccin efficace contre les piqûres de ces espèces aussi nocives que celles des abeilles. Allergie Outre le fait d’être douloureuse et toxique, la piqûre d’une seule abeille peut provoquer une réaction allergique capable de tuer en quelques minutes, car le système immunitaire réagit au venin en produisant des anticorps appelés immunoglobuline E ou IgE. En luttant contre le venin, ces IgE provoquent des tuméfactions, des démangeaisons, et même chez certaines personnes un choc anaphylactique qui bloque leur respiration et provoque un évanouissement soudain. Le vaccin n’a aucun effet contre cette réaction. Pour contrer le processus allergique, il faut identifier sa cause avec exactitude. Comme dans la plupart des cas il est impossible d’obtenir des observations scientifiques rigoureuses de la part des victimes, les dispensaires ont besoin de tests qui identifient les allergènes dans le sang des patients. Il y a déjà des tests qui détectent les allergènes de certaines guêpes nord-américaines et européennes, mais ici les espèces sont différentes. En outre, les 51 espèces de guêpes présentes sur le campus de Rio Claro représentent plus que l’ensemble de la biodiversité européenne et nord-américaine. Le Brésil compte 500 espèces, l’Europe 20 et les États-Unis 20. L’équipe coordonnée par Palma a l’intention de mettre au point des tests sur les espèces qui provoquent le plus d’accidents au Brésil et de promouvoir une formation permettant d’identifier et de traiter les allergies dues au venin d’insecte. «Actuellement, la majorité des personnes compétentes dans ce domaine a été formée par nos soins», déclare l’immunologiste et allergologiste Fábio Castro, qui se dit prêt à former davantage de personnes hors du Brésil. Palma et Fábio Castro ont déjà commencé à élargir les frontières en créant le Groupe d’Études des Nouveaux Allergènes Régionaux (Genar). Il s’agit d’un réseau de chercheurs et de professionnels de la santé qui va analyser et traiter des allergies rares comme celles concernant les aliments régionaux, dont on sait encore peu de choses. Le succès du projet démontre qu’une technique permettant d’analyser les peptides et les protéines, alliée à une connaissance de la nature, débouche sur des résultats surprenants. «Les toxines des animaux sont de véritables sources d’inspiration», déclare Palma qui analyse préalablement le comportement des insectes et des araignées ainsi que le rôle des substances chimiques dans la nature pour comprendre leur action et leur finalité. Le Projet Bioprospection de la faune des arthropodes de l’état de São Paulo pour mettre au point de nouveaux produits pharmaceutiques et pesticides sélectifs Modalité Programme Biota Coordonnateur Mario Sergio Palma – Unesp Investissement R$ 1.646.290,60  (FAPESP)R$ 1.530.000  (CNPq et Finep) [post_title] => Essaim mortel [post_excerpt] => Essaim mortel [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => essaim-mortel [to_ping] => [pinged] => [post_modified] => 2013-06-05 16:25:50 [post_modified_gmt] => 2013-06-05 19:25:50 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=119954 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [2] => stdClass Object ( [ID] => 119993 [post_author] => 17 [post_date] => 2013-06-04 16:22:54 [post_date_gmt] => 2013-06-04 19:22:54 [post_content] => Publié en novembre 2007 [caption id="attachment_120507" align="alignright" width="300"]Jaguar: sa mauvaise réputation est dueaux attaques de tropeaux non protégés car son propre environnement ne lui offre plus la nourriture nécessaire Jaguar: sa mauvaise réputation est dueaux attaques de tropeaux non protégés car son propre environnement ne lui offre plus la nourriture nécessaire[/caption] Préparez-vous à certaines surprises. À moins de 300 kilomètres de la capitale de l’état le plus industrialisé du pays et symbolisé par une métropole bruyante, des gens stressés et des champs de canne à sucre s’étendant à perte de vue dans les plaines de province, vivent encore des jaguars et des pumas. On trouve également des cerfs du pantanal et des jaburus sur les terres inondées à l’ouest, des arbres avec des troncs remplis de fourmis au milieu des plantes Triplaris americana et des buritis, de grands palmiers élégants. Au Sud-ouest se trouve une forêt où poussent inexplicablement et en abondance des pitangueiras (Eugenia uniflora), des jabuticabeiras (Myrciaria cauliflora) des cambuís (Myrcia multiflora), des goyaviers fraise, des uvaias (Eugenia uvalha) et d’autres arbres de la famille des myrtacées, ainsi que des plantes moins connues comme les gabirobeiras (Campomanesia xanthocarpa Berg) et les piúnas (Terminalia januariensis) qui au printemps et en été nourrissent les oiseaux et les singes grâce à leurs fruits succulents et charnus, formant un immense verger parfumé. Les biologistes ont décidé de nous faire profiter de ces raretés. 160 chercheurs du Programme Biota Fapesp, en partenariat avec le Secrétariat à l’Environnement, ont élaboré 3 cartes générales et huit autres thématiques considérant chaque groupe d’animaux et de plantes, pour montrer la richesse ou les zones détruites de forêts et du Cerrado (savane arborée) paulistes, comme mentionné sur l’affiche de cette publication ou sur le site www.biota.org.br/info/wap2006). Ces cartes sont le fruit de près de 10 ans de recherches et devront orienter le travail de préservation et d’agrandissement des forêts qui contiennent la vraie vie sauvage de cet état. Les quelques restes de végétation forment des environnements très variés, comme les forêts humides du littoral qui rappellent l’Amazonie et les forêts sèches de l’intérieur qui ressemblent à la Caatinga (forêt épineuse) du Nordeste brésilien. Ces cartes ont été élaborées grâce à une étude portant sur la répartition de 3 326 espèces de plantes et d’animaux, considérées stratégiques pour préserver les espaces naturels de l’état. Ces cartes, appelées Directives pour la Préservation et la Restauration de la Biodiversité de l’état de São Paulo, proposent deux lignes d’action simultanées. La première concerne la création de 10 à 15 unités de préservation et de protection intégrale dans des zones possédant une grande richesse biologique et indiquées sur l’une des cartes. C’est le cas d’une zone exubérante de Forêt Atlantique située entre trois parcs nationaux aux alentours de la commune d’Itapeva, dans le sud de l’état, et qui appartient aujourd’hui à des particuliers. La serra do Japi est une région également menacée par l’expansion des villes proches de la capitale et elle est stratégique car elle pourrait relier les forêts légalement préservées de la serra da Mantiqueira avec celles du sud de l’état de Minas Gerais. Ces nouvelles zones d’environ 25 mille hectares pourraient s’ajouter aux 800 mille hectares déjà préservés dans 28 unités de préservation intégrale (100 hectares représentent 1 kilomètre carré). Cependant, cette possibilité est difficilement réalisable car la préservation des forêts est onéreuse et prend du temps. En effet, l’état devrait acheter les terres privées et indemniser les habitants locaux avant d’implanter et de gérer ces nouvelles zones. La deuxième alternative proposée dans la deuxième carte générale pourrait être plus rapide. Il s’agirait d’inciter les propriétaires terriens à protéger les forêts se trouvant sur leurs propriétés. «Si tous les propriétaires ruraux respectaient la loi qui les oblige à préserver 20 % de la végétation native, il y aurait déjà une croissance monumentale des zones vertes», déclare Marco Aurélio Nalon, vice-directeur général de l’Institut Forestier et l’un des coordonnateurs de ces travaux. Les zones actuelles de forêts natives, appelées Réserves Légales, représentent environ 10 % des propriétés rurales de l’état. «Pour prendre les bonnes décisions et choisir les zones qui devront se transformer en Réserves légales nous avons besoin d’informations précises», déclare Helena Carrascosa von Glehn, ingénieur agronome qui coordonne les équipes de contrôle environnemental et de préservation des ressources naturelles dépendant du Secrétariat à l’Environnement. «Maintenant nous pourrons mieux travailler car nous aurons davantage d’arguments». Son équipe est composée de 320 techniciens qui collaborent avec les 2 200 policiers chargés du contrôle environnemental et pourra enfin expliquer aux fermiers et aux éleveurs les plus entêtés ce qu’ils ont légalement le droit de faire sur leurs propriétés grâce à la carte des zones prioritaires destinée à la création de réserves privées à préserver ou à restaurer. Les couloirs écologiques pourront ainsi augmenter d’environ mille hectares en reliant les restes de forêts comme cela est proposé dans une des cartes de synthèse. Les cartes deviendront ainsi un type de Constitution Verte qui devra être également adoptée par d’autres Secrétariats pour que les projets de construction de routes ou de lignes électriques, par exemple, soient refusés par le Secrétariat à l’Environnement s’ils venaient à ne pas respecter les recommandations de la carte. La Chambre de Compensation Environnementale oblige également les entrepreneurs à investir 0,5 % du montant total des ouvrages préjudiciables à l’environnement dans des unités de préservation. «Les cartes seront la base de toute la planification stratégique environnementale de l’état», souligne le biologiste Carlos Alfredo Joly, professeur à l’Université Publique de Campinas (Unicamp) et premier coordonnateur du Programme Biota-FAPESP. Carlos Alfredo Joly déclare qu’il se bat depuis dix ans pour utiliser des informations scientifiques au profit d’une gestion environnementale. Ce combat a démarré avec le secrétaire d’état à l’environnement de l’époque, Fábio Feldmann, mais sans grands résultats car la connaissance sur la diversité des plantes et des animaux de l’état était très limitée et les chercheurs et les organismes de gestion ne parvenaient pas à définir les priorités et le rythme de travail à adopter. À partir du mois de mars 1999, les chercheurs paulistes du Programme Biota-FAPESP ont commencé à remplir ces lacunes et à transformer la base de données qu’ils utilisaient en outil permettant de formuler et d’améliorer les politiques publiques de l’état de São Paulo. Cependant, beaucoup de forêts ont disparu. «De nombreuses zones naturelles sont toujours détruites par le feu, par l’exploitation du bois ou pour la chasse et sont souvent oubliées car elles sont trop petites ou trop isolées», souligne Ricardo Ribeiro Rodrigues, coordonnateur actuel du Biota et professeur à l’Université de São Paulo (USP) à Piracicaba. «Nous devons modifier cette situation». La végétation naturelle, détruite principalement durant deux siècles par l’expansion des caféiers et la croissance des villes, ne couvre plus actuellement que 13,9 % du territoire pauliste, soit 3,5 millions d’hectares, desquels 77 % appartiennent à des propriétaires privés et 23 % à l’état. Les forêts natives devraient couvrir environ 20 % du territoire pauliste pour que l’on puisse préserver non seulement la biodiversité mais un aspect qui intéresse de près les habitants des villes et les services environnementaux : l’approvisionnement en eau. [caption id="attachment_120510" align="alignleft" width="300"]Fruits de palmier dans des restinga (bosquets longeant l´océan) du littoral sud pauliste où les biologistes recommandent davantage de préservation légale Fruits de palmier dans des restinga (bosquets longeant l´océan) du littoral sud pauliste où les biologistes recommandent davantage de préservation légale[/caption] L’absence de forêts entraîne un réchauffement. C’est pour cette raison que la région située au nord-est de l’état entre les rivières Tietê et Grande est la plus désertique, avec moins de 5 % de couverture végétale native, elle est également la plus chaude et la plus sèche. Il s’agit du désert pauliste qui n’est cependant pas totalement exempt de biodiversité. Dans un petit ruisseau longeant des restes de végétations dans la commune de Planalto, l’équipe de Lilian Casatti, du laboratoire d’ichtyologie de l’Université Publique Pauliste (Unesp) à São José do Rio Preto, a découvert pour la première fois dans la région l’espèce Tatia neivai, un poisson-chat coloré de 4 centimètres de long qui vit entre les troncs et les branches qui jonchent le bord des rivières. Dans un étang près d’une forêt entourée de champs de canne à sucre de la commune d’União Paulista, une autre équipe de l’Unesp coordonnée par Denise Rossa-Feres a également découvert pour la première fois une grenouille singe (Phyllomedusa azurea). «En une seule nuit, j’ai détecté 14 espèces de crapauds et de grenouilles qui croassaient en même temps, juste après les premières pluies d’octobre», déclare-t-elle. Il y a de nombreuses lacunes en matière de connaissances scientifiques dans la région nord-est et ouest de l’état selon les données de la troisième carte de synthèse qui définit les priorités d’études des équipes de chercheurs du Programme Biota et des instituts de recherche du Secrétariat à l’Environnement. Les environnements naturels de l’état sont également très contrastés. Jusqu’à présent, un seul type de Forêt Atlantique, appelée ombrophile tropicale, est encore biologiquement bien représentée dans des zones étendues préservées et qui possèdent une structure raisonnable en matière de parcs et de contrôle environnemental, principalement situées le long du littoral. Ce n’est pas le cas du Cerrado, à l’intérieur de l’état, qui échappe aux lois en matière de préservation environnementale, et qui est éparpillé en milliers de fragments entre les différentes propriétés privées. L’un de ces fragments, situé dans la Station Écologique de Jataí, a une superficie de plus de 2 mille hectares. Le Cerrado est l’environnement naturel qui a le plus souffert car il n’en reste plus que 7 %, soit moins de 1 % de la superficie de l’état. Cette fragmentation qui isole les populations d’animaux, de plantes et empêche la dispersion de semences, n’est qu’une des menaces pour la survie du Cerrado pauliste. Une analyse portant sur 81 fragments et menée par Giselda Durigan et Geraldo Franco, de l’Institut Forestier et par Marinez Siqueira, du Centre de Référence d’Information Environnementale (Cria), a mis en évidence d’autres dangers, principalement aux abords des routes et des villes, comme les graminées invasives et le feu qui sont plus nuisibles à l’environnement que la croissance des plantations de canne à sucre et l’exploitation du bois. Il n’y a pas que le Cerrado qui mérite une attention toute particulière. Il faut également protéger deux environnements côtiers menacés par la création de parcelles destinées à l’habitat et appelés restinga (bosquets longeant l’océan) et la mangrove, alerte Kátia Pisciota, technicienne du secteur de préservation environnementale de la Fondation Forestière. Ces cartes lui serviront d’arguments pour accélérer la création de réserves naturelles dans des propriétés privées. Les priorités à adopter et les lacunes scientifiques à surmonter ont clairement été identifiées grâce à la coordination de Joly et de son successeur, Ricardo Rodrigues, de différents chercheurs comme Vera Lúcia Ramos Bononi, directrice de l’Institut de Botanique qui connaît bien les méandres du Secrétariat à l’Environnement pour y avoir débuté comme stagiaire en 1968. Comme elle connaissait les plans de l’équipe du Biota en matière de sélection de zones prioritaires, de préservation et de restauration de la biodiversité de l’état, elle a proposé que Ricardo Rodrigues se charge de la coordination du Biota, lors d’une réunion le 5 avril 2008. À cette occasion, Francisco Graziano Neto, nouveau Secrétaire à l’Environnement, a présenté le programme de recherche qui sera utilisé durant sa gestion. Comme l’une des priorités concernait l’étude de la biodiversité pauliste, Ricardo Rodrigues a décrit le programme Biota en expliquant qu’il s’agissait d’un relevé de la flore et de la faune de l’état regroupant 1 200 chercheurs. Il a ensuite expliqué que le regroupement de ces informations favoriserait la formulation de politiques environnementales et la mise en œuvre de stratégies de préservation des restes de végétation en partenariat avec le Secrétariat à l’Environnement. «Pour le moment, les priorités du Secrétariat à l’Environnement correspondent à celles des chercheurs», déclare Vera Lúcia Ramos Bononi. Le Secrétaire à l’Environnement a analysé les cartes définitives quatre mois plus tard, le 3 octobre, et a été surpris par la richesse des détails. Enthousiasmé par ces cartes, il a aussitôt promulgué une mesure suspendant la concession d’autorisations en matière de déforestation, à partir de septembre et pour une durée de 6 mois. Graziano a présenté publiquement ces cartes le 10 octobre et a déclaré que son intention était de réorganiser les procédures d’autorisation. «Les zones les plus menacées doivent bénéficier de lois plus sévères. Les informations recueillies par les chercheurs sont devenues essentielles pour la gestion environnementale de l’état de São Paulo», ajoute-t-il. Les scientifiques n’imaginaient pas les difficultés, les impasses et les conflits auxquels ils seraient confrontés entre les différentes réunions avec le secrétaire d’état. Le début a été tranquille. Les nouvelles cartes se basent sur l’Inventaire Forestier de São Paulo, un relevé qui montre la répartition des 13,9 % restants de couverture végétale native dans l’état (voir Recherche FAPESP nº 91, de septembre 2003). Ces cartes sont mise à jour de manière continue et ce mois-ci une version plus détaillée ne concernant que les 27 communes littorales a été publiée. L’Inventaire deviendra une référence pour les organismes publics de contrôle environnemental. Dès leur publication en 2005, ces cartes ont montré un assèchement des rivières paulistes dû à la perte des forêts ciliaires, élevant le risque de pénurie d’eau dans les villes et pour les cultures. Elles ont également favorisé l’identification de zones déboisées ou qui utilisent des engrais et dont les eaux alimentent l’aquifère Guarani dans la commune de Ribeirão Preto. Les problèmes ont commencé quand il a fallu établir la richesse biologique et les priorités à adopter pour la préservation des zones citées dans l’inventaire. Les biologistes se sont organisés en groupes de travail sur les poissons, les mammifères, les reptiles et les amphibies, les arachnides et les insectes, les paysages, les cryptogames (plantes sans fleurs) et les phanérogames (plantes avec fleurs). Les chercheurs se sont ensuite basés sur leurs collectes, celles d’autres équipes, les informations du SinBiota, la banque de données du Biota, et d’autres données de banques scientifiques de l’état de São Paulo. Ils ont ainsi réuni environ 220 mille fichiers, y compris ceux qui avaient été enregistrés depuis plusieurs décennies. En consultant cette banque d’informations, beaucoup de noms scientifiques étaient faux, de nombreuses plantes communes étaient désignées comme appartenant à des espèces rares et il y avait un surplus d’informations générales anciennes qui n’indiquaient que le lieu de la collecte. De nombreuses plantes semblaient avoir été cueillies hors de l’état de São Paulo en fonction des limitations techniques liées au manque de précision des appareils calculant les coordonnées géographiques et qui fonctionnent mal en forêt. Dans la pratique(virgule) on a exploité moins d’informations qu’on ne le pensait. Les efforts réalisés pour filtrer et organiser ces informations se sont intensifiés après la réunion du mois d’avril et ont mobilisé les équipes de l’Institut Forestier, de l’Institut de Botanique, de l’USP, de l’Unicamp, de l’Unesp et de l’ONG Préservation Internationale. Le Professeur Nalon, physicien de formation qui travaille depuis 15 ans sur les cartes de géotraitement de l’Institut Forestier, a regroupé les informations de chaque groupe de travail sur la végétation, les bassins hydrographiques, les villes et les routes et les a incluses dans les cartes. Le professeur d’Écologie de l’USP, Jean Paul Metzger, a réuni environ 100 mille échantillons de végétation native de l’état en essayant de découvrir le type de végétation pouvant être relié aux autres, selon l’espèce, la taille et la proximité. Dans les coulisses, de jeunes chercheurs regroupaient sans relâche ces données afin de les inclure aux cartes. Milton Cezar Ribeiro, Giordano Ciocetti et Leandro Tambosi, de l’USP, ont travaillé sur les versions définitives de ces cartes, terminant 5 minutes avant que Metzger et Rodrigues ne présentent les résultats à un public de 150 personnes dans l’auditorium du Secrétariat, le 10 octobre. Cette rare collaboration entre la recherche scientifique et l’intérêt public peut malheureusement être ruinée par de nombreux préjugés culturels. Pour de nombreux fermiers et éleveurs, les forêts n’ont aucune importance. En outre, de nombreuses personnes pensent que des animaux sylvestres comme les jaguars doivent être éliminés, car ils attaquent les vaches, les volailles et les chiens. «Les jaguars n’attaquent que les animaux maltraités, malades et non surveillés aux abords des forêts, car ils ne trouvent plus de nourriture dans leur propre environnement», observe Beatriz de Mello Beisiegel, chercheuse du Centre National de Recherche pour la Préservation des Prédateurs Naturels (Cenap), d’Atibaia. Quand les agriculteurs nous appellent effrayés pour nous signaler un jaguar, l’équipe du Cenap leur explique qu’ils peuvent adopter des précautions simples en laissant par exemple une lumière allumée près du bétail ou en lançant des fusées quand la nuit tombe. Cette étude est cependant exceptionnelle car elle démontre que des spécialistes issus d’universités ou d’organismes publics peuvent travailler ensemble à des objectifs communs au profit de la société. «Les chercheurs ne comprennent pas toujours ce besoin urgent de réponses rapides», déclare Helena von Glehn. «Ils doivent être rigoureux, perfectionnistes et, parfois, des informations sans valeur scientifique apparente peuvent s’avérer utiles pour résoudre les problèmes environnementaux urgents». [post_title] => Manuel d’urgence [post_excerpt] => Manuel d’urgence [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => manuel-durgence [to_ping] => [pinged] => [post_modified] => 2013-06-05 16:46:58 [post_modified_gmt] => 2013-06-05 19:46:58 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=119993 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [3] => stdClass Object ( [ID] => 120031 [post_author] => 17 [post_date] => 2013-06-04 16:47:02 [post_date_gmt] => 2013-06-04 19:47:02 [post_content] => Publié en décembre 2007 [caption id="attachment_120513" align="alignright" width="167"]Détail de la nature équatoriale, huile sur toile de Joseph Leone Righini Détail de la nature équatoriale, huile sur toile de Joseph Leone Righini[/caption] Si les administrateurs et les techniciens du gouvernement fédéral décidaient de travailler de manière plus intense afin de contenir la déforestation, selon les voeux du président de la république exprimés au mois de septembre à l’Assemblée Générale des Nation Unies, ils s’interrogeront peut-être sur les zones qu’ils devront prioriser car leurs équipes sont limitées et le pays est immense. Les communes du sud de l’état du Pará qui longent la route nationale Cuiabá/ /Santarém seraient un choix possible. Il ne s’agit pas d’un choix hasardeux, mais de l’application d’un mécanisme de détection des transformations environnementales, appelé Indice des Dimensions Socioéconomi ques (IDS) et mis au point par des géo graphes de l’Université Fédérale de Minas Gerais (UFMG). Cet indice regroupe des aspects socioéconomiques comme l’éducation, la santé et l’emploi, la croissance des villes, le rythme de l’activité économique et la transformation de l’espace. Quand l’expansion de l’économie et des communes s’accélère, la précarité des conditions de vie et la migration des populations s’intensifi ent. Les indices IDS élevés représentent un risque élevé en termes de dommages environnementaux car le nombre de personnes à la recherche d’un emploi ou d’un meilleur emploi augmente avec un impact direct sur la diminution des forêts. Des zones à forte croissance populationnelle et un indice IDS élevé pourraient faire l’objet d’une attention particulière car ils représentent des foyers potentiels de déforestation. C’est le cas d’Aripuanã dans l’état du Mato Grosso, des communes proches de Santarém, dans l’état du Pará, du nord de Manaus en Amazonie, des rives de l’Amazone et de la zone qui longe la route nationale Porto Velho/Manaus. Pour l’élaboration de cet indice, Ricardo Garcia, Britaldo Soares-Filho et Diana Sawyer se sont rendus sur le territoire amazonien, région qui subit la pression de différents groupes sociaux. La déforestation s’est maintenant transformée en phénomène social qui possède différentes caractéristiques selon les motivations locales. “La principale cause de la déforestation dans le sud de l’état du Pará est l’expansion de l’élevage, alors que dans l’état de l’Amapá c’est la croissance des villes”, déclare Garcia. L’expansion de l’élevage avait été l’une des explications principales de la disparition des forêts depuis le début de l’occupation amazonienne, il y a environ deux siècles, mais seulement sur une échelle globale. Sur une plus vaste échelle, quand chaque état est analysé séparément, comme c’est le cas dans cette étude, la migration devient la principale cause de la disparition de la végétation native. “La migration explique en grande partie la déforestation car elle précède l’expansion de l’agriculture et de l’élevage”, déclare Garcia. “Les personnes se rendent là où ils espèrent trouver un emploi”. Entre 1995 et 2000, environ cinquante mille personnes ont quitté Belém, capitale de l’état du Pará, ce qui démontre le potentiel migratoire de la population constaté dans d’autres capitales de la Région Nord. Manaus a vécu l’inverse en recevant 40 mille nouveaux habitants au cours de la même période, qui se sont ajoutés aux 1,4 millions d’habitants déjà établis, accentuant la transformation du paysage naturel dans les espaces urbains. Selon cette étude, plus la population est importante, plus l’impact environnemental est fort. Cette logique explique pourquoi les centres urbains amazoniens les plus infl uents (les capitales, que les auteurs de cette étude appellent macropoles) ont les indices IDS les plus élevés et ne possèdent plus que quelques forêts éparses. Ces neuf macropoles (São Luís, Cuiabá, Porto Velho, Rio Branco, Manaus, Boa Vista, Belém, Macapá e Palmas) représentent les noeuds d’un réseau de 792 communes, régies également par 29 centres régionaux et 48 micropoles, appelés ainsi en fonction de leur zone d’influence. Comme les macropoles sont les communes les plus actives sur le plan économique, elles sont le principal foyer de la déforestation. “L’expansion de l’agriculture et de l’élevage part et dépend des centres urbains qui fournissent la main d’oeuvre, les outils, les entreprises frigorifi ques et le marché consommateur, qui se répandent à travers les routes et les voies fl uviales”, déclare Garcia. “Le cas du sud de l’état du Pará explique clairement comment les centres urbains ont un impact sur la déforestation”. L’IDS, expliqué dans un article publié par la revue Ecological Indicators, utilise cinq variables obtenues au cours de recensements populationnels ou économiques. Quatre de ces variables concernent directement la déforestation. Plus la valeur est élevée, plus le risque de disparition de la forêt est grand. La première variable concerne la concentration dynamique populationnelle qui combine la population totale, la densité et le taux de croissance. La deuxième concerne le développement économique, considérant le revenu brut de la commune et le volume monétaire en circulation. La troisième concerne l’infrastructure agraire, considérant le revenu agricole, la zone cultivée et le nombre de tracteurs et de camions, par exemple. La quatrième a trait à la production agricole et de bois, considérant les zones occupées par les propriétés agricoles, l’élevage et l’exploitation du bois. Seule la cinquième variable représente une force capable d’éviter la disparition des forêts. Il s’agit du développement social, mesuré par des indices qui considèrent la durée de scolarité, le nombre de médecins, de dispensaires, de maisons desservies par le réseau des eaux et de rues éclairées. La logique est simple, davantage de confort et une meilleure infrastructure évitent la migration de ces habitants. Cet indice explique également pourquoi la forêt se transforme en zones agricoles ou en pâturages. Selon les estimations de l’Institut National de Recherches Spatiales (Inpe), l’état du Mato Grosso est responsable de 48 % des déforestations sur les 26 mille kilomètres carrés déboisés ces dernières années. Les communes de cet état ont les indices IDS les plus élevés de la région. Pour l’instant rien n’indique que l’IDS soit rapidement adopté par Brasilia, mais ce travail aura servi à d’autres recherches. Il a déjà servi de base pour la répartition de l’Amazonie en régions socioéconomiques, dans une étude plus large publiée par la revue Nature en mars 2006. Cette étude révèle que la moitié de la forêt pourrait avoir disparu en 2050, remplacée par des pâturages, des plantations, et des villes. Elle met en garde sur le besoin d’ajustement en matière de politique environnementale. Les zones préservées ne sont peut être plus suffi santes pour sauver la forêt et préserver le cycle des pluies dans les grandes villes de la Région Sudeste. Article scientifique GARCIA, R.A. et al. Socioeconomic dimensions, migration, and deforestation: An integrated model of territorial organization for the Brazilian Amazon Ecological Indicators. v. 7, n. 3, pp. 719-730, jul. 2007 [post_title] => Plus de gens, moins d’arbres [post_excerpt] => Plus de gens, moins d’arbres [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => plus-de-gens-moins-darbres [to_ping] => [pinged] => [post_modified] => 2013-06-05 16:52:12 [post_modified_gmt] => 2013-06-05 19:52:12 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=120031 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [4] => stdClass Object ( [ID] => 120078 [post_author] => 17 [post_date] => 2013-06-04 17:15:55 [post_date_gmt] => 2013-06-04 20:15:55 [post_content] => Publié en décembre 2007 Le doute qui planait jusqu’à présent sur les rayons cosmiques a peut-être été résolu. Il y a près de 70 ans, le physicien français Pierre Auger a identifié les particules les plus énergétiques de l’Univers qui, lorsqu’elles entrent en collision avec l’atmosphère terrestre, se désintègrent en milliards d’autres. Mais deux éléments d’apparence simples étaient restés sans réponse : la provenance de ces rayons et ce qu’ils sont exactement. Actuellement, une équipe de 370 chercheurs de 17 pays – dont le Brésil – est en mesure de répondre à la première question (la seconde reste encore en suspens). Comme l’indique l’article paru dans la revue Science du 9 novembre, les rayons cosmiques les plus énergétiques doivent se former à proximité de trous noirs – gouffres de matière et d’énergie – rencontrés sur les noyaux galactiques actifs proches de notre propre galaxie, la Voie Lactée. Les rayons cosmiques d’ultra-haute énergie naissent au milieu d’un mélange de particules électriquement chargées libérées par les trous noirs les plus actifs qui ont absorbé en grande quantité des gaz, de la poussière cosmique et des étoiles. Cette situation dantesque se passe sur des galaxies actives comme la galaxie Centaure A (la plus proche, située à 12 millions d’années-lumière de la Voie Lactée) ou sur d’autres qui peuvent se trouver jusqu’à 300 millions d’années-lumière – une distance relative quand l’on sait que l’Univers s’étend sur 13 milliards d’années-lumière. Les rayons cosmiques les plus énergétiques qui atteignent aujourd’hui la Terre peuvent s’être formés à la veille de la gigantesque extinction qui a fait disparaître 95 % des formes de vie sur notre planète (il y a 250 millions d’année), ou alors quand sont apparus les dinosaures (il y a près de 230 millions d’années). Les physiciens de ce domaine s’intéressent peu aux rayons cosmiques de basse énergie. Ils sont plus ordinaires et d’origine encore plus incertaine, même s’ils peuvent interrompre la conversation sur un téléphone portable ou le film qui passe à la télévision quand ils se forment dans des explosions solaires plus intenses. Les rayons de ultra-haute énergie sont plus intéressants pour trois raisons : premièrement, ils sont chargés d’une énergie quasiment inconcevable, jusqu’à 60 x 1018 électron-volts (1 électron-volt, ou unité d’énergie des particules, correspond à l’énergie de l’électron, la plus petite particule élémentaire). Deuxièmement, ils sont très rares : un seul atteint la Terre par siècle et par kilomètre carré (si le nom de ces particules suggère qu’elles arrivent en faisceau, elles sont en réalité des voyageuses solitaires). Troisièmement, ils peuvent permettre de voir le ciel d’une autre manière. D’après Carlos Escobar, physicien, professeur de l’Université d’état de Campinas (Unicamp) et coordinateur de l’équipe brésilienne, « cet article de la revue Science ouvre aussi la voie à des études sur les objets célestes du point de vue des rayons cosmiques ». Depuis Galilée, les astrophysiciens ne se basaient que sur la lumière – d’abord seulement la lumière visible puis sur des longueurs d’onde variée, de l’infrarouge jusqu’aux rayons gamma – pour observer l’Univers. Les rayons cosmiques pourraient aider à étudier dans un premier temps les phénomènes qui se produisent sur les centaines de galaxies actives, dont les noyaux émettent une quantité d’énergie mille fois supérieure à celle produite dans toute la Voie Lactée. Les noyaux de ces galaxies abritent très souvent des trous noirs de grande masse (des millions de fois supérieure à celle du Soleil), qui absorbent tout ce qui se trouve aux alentours. Les rayons cosmiques d’ultra-haute énergie sont le fruit de cette voracité insatiable, un peu comme les miettes d’un pain mangé à la va-vite, avant d’être propulsés par les turbulences des champs magnétiques de l’espace. Dans un travail publié récemment dans Nature, des physiciens du Japon, d’Irlande, d’Allemagne et des États-Unis ont signalé que les rayons cosmiques d’une énergie 10 000 fois plus basse que ceux présentés dans Science pouvaient être accélérés par des explosions connues sous le nom d’étoiles supernovas, capables de libérer en peu de temps la même énergie émise par le Soleil en 10 billions d’années. Cette étude a confirmé un phénomène prévu il y a plusieurs décennies par le physicien italien Enrico Fermi, mais qui ne répondait pas à la question de la provenance de ces particules. L’équipe dont le Brésil a fait partie a réussi à découvrir l’origine des rayons cosmiques les plus énergétiques grâce au monumental Observatoire de Rayons Cosmiques Pierre Auger. L’observatoire s’étend sur 3 000 km², soit le double de la ville de São Paulo, dans une région semi-désertique à l’ouest de l’Argentine, près de la ville de Malargüe (20 000 habitants). Aujourd’hui considéré comme le plus grand observatoire mondial en la matière, il a été imaginé en 1992 par le physicien nord-américain James Cronin, professeur de l’Université de Chicago lauréat du prix Nobel de Physique en 1980, et par l’écossais Alan Watson, de l’Université de Leeds (Angleterre). Devant la nécessité d’une coopération internationale au vu des proportions que prenait le projet initial, ils invitèrent quelques collègues intéressés et chevronnés dans le domaine de la physique nucléaire à se joindre à eux pour en discuter en juin 1995. L’un des participants était le physicien Escobar, à l’époque professeur de l’Université de São Paulo (USP). Lors d’une réunion qui s’est tenue au siège parisien de l’Unesco en novembre 1995, Escobar, Ronald Shellard (Centre Brésilien de Recherches Physiques, CBRF), Armando Turtelli (Unicamp) et les Argentins Alberto Etchegoyen et Alberto Filevivch ont ardemment soutenu la possibilité de construire le nouvel observatoire en Argentine. « Ce fut un moment crucial », raconte le physicien Marcelo Leigui, alors participant à la recherche dans le cadre de son post-doctorat (Unicamp) et aujourd’hui professeur de l’Université Fédérale de l’ABC (UFBAC). « La participation brésilienne aurait été plus faible si l’Afrique du Sud ou l’Australie, les deux autres pays candidats, avaient été choisis ». Officialisée le 17 juillet 2000 à l’Unicamp, la participation brésilienne s’est traduite par des investissements de près de 4 millions de dollars, sous la forme d’équipements achetés à des industries brésiliennes, de bourses de 3e cycle universitaire et de frais de voyage. Les lecteurs de la revue ont pu accompagner les principaux moments de la construction lente et laborieuse de l’observatoire Pierre Auger. En août 2000, l’article principal de la revue Pesquisa FAPESP révélait déjà les coulisses des négociations et le début de la construction. En avril 2002, un autre article décrivait la cadence des travaux : « À ce moment, dans un lieu qui rappelle très souvent la complexité d’une navette spatiale et la puissante structure d’une centrale hydroélectrique, des dizaines d’ouvriers, de techniciens et de chercheurs travaillent intensément au montage des équipements de mesure des rayons cosmiques ». 40 des 1 600 détecteurs de surface Cerenkov étaient déjà opérationnels. Ces cuves, remplies de 11 000 litres d’eau ultra pure, captent le rayonnement bleuté produit quand un rayon cosmique entre en collision avec l’eau. Elles fonctionnent conjointement avec 24 télescopes à fluorescence, qui enregistrent la lumière produite lorsque les rayons cosmiques se heurtent à l’atmosphère. L’observatoire Pierre Auger a été le premier à intégrer les deux méthodes d’observation, jusqu’alors utilisées isolément dans des observatoires américains et japonais plus petits. L’ingéniosité de cette construction, déjà relatée dans un reportage d’août 2003, est également le fruit de la collaboration d’entreprises de 19 pays. Du Brésil ont participé : Alpina et Rotoplastyc, qui ont fabriqué les cuves Cerenkov ; Schwantz, pour les lentilles correctrices des télescopes ; Moura, pour les batteries des panneaux solaires des détecteurs de surface. Le physicien Vitor de Souza raconte qu’il a appris « à dépasser les barrières de l’entendement entre la pensée universitaire et la pensée industrielle » au fur et à mesure qu’il participait à la construction et à l’installation des équipements. La revue Pesquisa FAPESP a également accompagné l’arrivée des rayons cosmiques. Un article d’octobre 2005 faisait état de l’enregistrement de 3 000 particules, dont 20 étaient précieuses parce que situées dans le faisceau d’énergie le plus élevé. Cette année, les physiciens ont réuni les 27 particules d’une énergie supérieure à 57 x 1018 électron-volts enregistrées entre 2004 et 2007, et ils ont constaté qu’elles provenaient d’endroits spécifiques, liés aux noyaux galactiques actifs proches de la Voie Lactée. L’hypothèse selon laquelle elles viendraient de la propre Voie Lactée ou de régions plus distantes (dans ce cas elles se répartiraient de manière homogène dans le ciel au lieu de se regrouper conformément aux origines probables) a été écartée. D’après Escobar, « nous avons montré qu’il est possible de mener un projet de grande ampleur avec un budget inférieur à celui prévu initialement ». Les investissements des 17 pays ont été de 54 millions de dollars, soit 6 millions de moins que ce qui était prévu et malgré les imprévus de toute sorte. « Nous avons beaucoup appris en termes de gestion de projets ». Les Brésiliens ont eux aussi réduit les dépenses. Il y a deux ans, Escobar a notamment décidé que tous les membres de l’équipe brésilienne cesseraient de prendre deux avions pour se rendre à l’observatoire Pierre Auger. Désormais, ils prennent un avion jusqu’à Buenos Aires puis un bus pour Malargüe, l’équivalent de 16 heures de voyage. « Outre la connaissance acquise, nous apprenons à cohabiter avec différents rythmes et formes de travail », observe Sérgio Carmelo Barroso. Aujourd’hui professeur de l’Université d’état du Sud-Ouest de Bahia (UESB), il s’est rendu dix fois sur place en un an pour monter et tester les équipements. Et Souza d’ajouter : « J’ai appris comment on projette, construit et teste un équipement, comment on analyse les données et finalement comment sont extraits les résultats scientifiques importants ». Ce dernier travaille depuis janvier dernier à l’Université allemande de Karlsruhe. « Nous n’avons pas encore atteint nos objectifs », s’inquiète Leigui. Il faut encore confirmer si les rayons cosmiques de ultra-haute énergie sont vraiment des protons (un des composants du noyau atomique, presque 2 000 fois supérieur aux électrons) ou des noyaux d’oxygène, de carbone ou d’autre chose. « Nos résultats corroborent l’idée que les rayons cosmiques sont réellement des protons, de faible charge électrique », affirme Escobar. Avec ce travail, les physiciens testent la validité de certaines théories. En arrivant sur la Terre, Les rayons cosmiques pourraient présenter une limite maximale d’énergie, ladite coupure GZK, proche de 60 x 1018 électron-volts, mais il faut encore confirmer cette donnée. Selon Escobar, le seul fait d’avoir obtenu des corrélations avec des objets extragalactiques proches indique déjà que la coupure GZK fonctionne. Comme la fin d’un voyage peut marquer le début d’autres encore plus longs, l’équipe de l’observatoire Auger prévoit également de construire aux États-Unis une version similaire de l’observatoire argentin, qui pourra révéler d’autres secrets du ciel de l’hémisphère nord. Dès qu’il entrera en fonctionnement, certes, c’est-à-dire d’ici à une dizaine d’années au moins. Les rayons perdentde l’énergie avant d’atteindre la Terre En 2008, les physiciens de l’Observatoire Pierre Auger ont montré que les rayons cosmiques perdaient de l’énergie avant d’atteindre la Terre, en raison de leur interaction avec le rayonnement cosmique de fond – un résidu du Big Bang, la première explosion produite par l’Univers il y a 13,7 milliards d’années. Dans un article de la revue scientifi que Physical Review Letters du 8 août, les chercheurs ont pratiquement confirmé l’existence de ladite coupure GZK. Selon cette théorie, en arrivant sur Terre les rayons cosmiques peuvent présenter une limite maximale d’énergie d’environ 5 x 1019 électron-volts (eV). Les rayons d’une énergie supérieure à cette valeur deviennent moins puissants avant d’arriver sur terre à cause de l’action du rayonnement cosmique. Ces données sont le résultat des mesures effectuées par l’équipe de l’observatoire, qui a enregistré très peu d’événements avec une énergie supérieure à 5,8 x 1019 eV. LE PROJET Observatoire Pierre Auger MODALITÉ Projet thématique COORDONNATEUR CARLOS OURÍVIO ESCOBAR – Unicamp INVESTISSEMENT R$ 6.034.341,71 (FAPESP) [post_title] => Le long voyage des rayons cosmiques [post_excerpt] => Le long voyage des rayons cosmiques [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => le-long-voyage-des-rayons-cosmiques [to_ping] => [pinged] => [post_modified] => 2013-06-04 17:26:58 [post_modified_gmt] => 2013-06-04 20:26:58 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=120078 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) ) [technologie] => Array ( [0] => stdClass Object ( [ID] => 120119 [post_author] => 10 [post_date] => 2013-06-04 17:31:08 [post_date_gmt] => 2013-06-04 20:31:08 [post_content] => Publié en octobre 2008 [caption id="attachment_120516" align="alignright" width="210"]Plateforme P-34 et pétrolier dans le bassin de Campos Plateforme P-34 et pétrolier dans le bassin de Campos[/caption] Des recherches menées dans différentes salles du bâtiment d’Ingénierie Mécanique de l’École Polytechnique (Poli) de l’Université de São Paulo située dans la capitale pauliste, vont permettre de résoudre le transport de gaz naturel. Ce dernier est exploité en profondeur sous la couche de pré-sel du bassin de Santos qui fait partie des nouvelles réserves pétrolières confirmées par Petrobras à la fin de l’année 2007. L’équipe du professeur Kazuo Nishimoto, coordonnateur du TPN (Cuves d’Essais Numériques), laboratoire spécialisé en hydrodynamique et équipé d’un groupe d’ordinateurs, met au point des systèmes de simulation du futur transvasement de gaz naturel des plateformes pétrolières vers les navires. Il s’agit d’une des possibilités examinées par Petrobras, l’autre option étant d’utiliser des gazoducs installés au fond des océans, mais il s’agit d’une solution onéreuse et difficile à mettre en œuvre car elle nécessite l’installation de conduites de gros diamètre sur de longues distances et dans un environnement marin. Le gaz sera transformé sur les plateformes pour passer d’un état gazeux à un état liquide afin de faciliter son transport par des méthaniers. Il s’agit d’un dispositif qui fonctionnera en haute-mer à plus de 300 kilomètres de la côte à une profondeur de 2 200 à 3 000 mètres, dans un environnement hostile en proie aux vagues, aux vents violents et à la pression qui compliquent l’ancrage et la stabilité des risers, des conduites reliant l’équipement au fond de l’océan et transportant le pétrole et le gaz jusqu’à la plateforme. «Il n’y a encore aucun système fonctionnant en haute-mer transformant le gaz en liquide. Le gaz naturel liquide (GNL) doit être maintenu à basse température dans un environnement cryogénique de basse pression. L’ensemble du dispositif et la conduite de transfert de la plateforme qui transvasera le gaz vers le navire devront être à une température comprise entre moins 120 degrés et moins 160 degrés Celsius. La cuve devra également être réfrigérée. Cependant, quand le métal est soumis à de très basses températures il devient fragile et peut se fissurer», déclare le professeur Nishimoto, du Département d’Ingénierie Navale et Océanique de la Poli. L’autre défi sera de réaliser des transvasements dans des situations critiques dues au mouvement de l’océan et des plateformes. Ces dernières peuvent être semi-submersibles comme les barges flottantes de production qui combinent les fonctions d’extraction, de traitement et de stockage, appelées FPSO (Floating, Production, Storage and Offloading), et le navire GNL qui réagit différemment quand ses cuves sont pleines ou vides. Le TPN intègre le secteur de développement de systèmes de Petrobras, produit des calculs et simule des situations en utilisant les différentes variables de l’environnement marin et des équipements utilisés. Ce laboratoire a été financé en 2002 par Petrobras et par l’organisme de Financement d’Études et de Projets (Finep), qui dépend du Ministère des Sciences et de la Technologie. Il comprend également des chercheurs de la Coordination des Programmes de 3e cycle d’Ingénierie (Coppe), de l’Université Fédérale de Rio de Janeiro (UFRJ), du Groupe de Technologie et d’Informatique Graphique (Tecgraf), de l’Université Pontificale Catholique de Rio de Janeiro, de l’Université Publique de Campinas (Unicamp), de l’Université Fédérale d’Alagoas (Ufal) et de l’Institut de Recherches Technologiques (IPT). L’exploitation du gaz naturel est l’un des défis technologiques de Petrobras et d’autres compagnies qui collaborent également avec des chercheurs et des fournisseurs d’équipements. Ils mènent actuellement des recherches sur la production, l’extraction et le transport de pétrole et de gaz réalisés dans des conditions inédites en fonction des cavités de gaz situées sous les couches de sel et constituées d’un ensemble de roches solides d’environ 2 kilomètres d’épaisseur. La couche de sel se comporte comme une barrière naturelle isolant le pétrole et le gaz qui se forment dans les roches carbonatées (voir article page 75), à une profondeur de 5 à 7 mille mètres. Petrobras est leader dans l’exploitation de gisement de pétrole en haute-mer avec des puits en activité situés à 1 800 mètres de profondeur. L’entreprise analyse actuellement l’état des réserves des nouveaux puits pour déterminer la quantité qui sera exploitée commercialement dans une région qui s’étend des côtes de l’état d’Espírito Santo jusqu’aux côtes de l’état de Santa Catarina. L’entreprise étudie la technologie d’extraction de gaz et de pétrole dans des conditions extrêmes et le transport de ces produits jusqu’aux raffineries et aux distributeurs de gaz. Pour ce faire, elle a lancé le Programme Technologique pour le Développement de la Production des Réserves de la couche Pré-sel (Prosal). L’entreprise développe dans le plus grand secret 23 projets dans des différents domaines comme l’ingénierie des puits, des réserves et l’écoulement de gaz et de pétrole. «De nombreux détails sont gardés secrets», déclare Osvair Trevisan, directeur du Centre d’Étude Pétrolier (Cepetro) de l’Unicamp. «L’entreprise est en train de mettre au point le mode opératoire, les modèles et les paramètres d’ingénierie et de production. Nous estimons qu’il n’y aura pas de grands obstacles technologiques pour exploiter la couche pré-sel», affirme Osvair Trevisan, ancien Superintendant d’Exploitation de l’Agence Nationale du Pétrole (ANP). Le secret qui entoure les détails les plus techniques, y compris dans la communauté scientifique qui travaille en partenariat avec Petrobras est probablement lié au contexte économique et aux voies qui seront choisies en matière d’exploitation de la couche pré-sel, car le pays verra ses réserves passer de 14 milliards de barils à 50 milliards ou plus. Des puits comme ceux de Tupi et d’Iara, dans le bassin de Santos, garantissent déjà entre 9 et 12 milliards de barils de réserve. Les premières analyses montrent qu’il s’agit d’un pétrole d’excellente qualité, capable d’offrir les produits les plus nobles à la pétrochimie, mais les réserves doivent encore être calculées avec exactitude. Quoi qu’il en soit, elles pourront hisser le Brésil au rang des 10 principaux producteurs mondiaux de pétrole. Le Brésil occupe actuellement la 24ème place des principaux producteurs de pétrole. On estime que la quantité de gaz naturel de la couche pré-sel pour le gisement de Tupi dans le bassin de Santos représente entre 176 milliards à 256 milliards de mètres cubes, la même quantité que les réserves pétrolières actuelles qui s’élèvent à 330 milliards de mètres cubes et qui se trouvent pour la plupart dans des gisements encore non exploités. Le Brésil importe encore 60 millions de m3 de gaz, dont la moitié provient de Bolivie. La viabilité de l’exploitation commerciale et les quantités réelles des réserves ne seront établies qu’après des tests de longue durée (TLD), qui devraient s’étendre sur un an et demi à partir de mars 2009 pour le puits de Tupi. Les systèmes pilotes de production entreront ensuite en action au cours du deuxième semestre 2010. Si tout est validé et défini, la phase de production démarrera sur de nouvelles plateformes entre 2013 et 2014. La production sera tout d’abord de 100 mille barils de pétroles et de 5 millions de mètres cubes de gaz par jour. [caption id="attachment_120518" align="alignleft" width="300"]Navire destiné au transport de gaz naturel liquéfié: Une possible solution pour le gisement de Tupi Navire destiné au transport de gaz naturel liquéfié: Une possible solution pour le gisement de Tupi[/caption] «Dans ce nouveau type d’exploitation, l’un des défis sera de forer la couche de sel car elle se déforme et peut provoquer la rupture de la colonne de forage. Il faut réaliser des contrôles à chaque instant», souligne le professeur Nishimoto. «Chaque puits doit avoir un modèle numérique spécifique expérimental informatisé reproduisant les conditions marines et du sol et calculant la dynamique des navires et des plateformes». C’est une des tâches des spécialistes en forage de Petrobras qui sont aidés par des institutions de recherche comme l’IPT et l’USP. «Les institutions reçoivent souvent des emails provenant de spécialistes se trouvant sur les plateformes de forage du bassin de Santos pour l’élaboration de prévisions et de calculs».Tout est réalisé avec beaucoup de minutie car, outre le sel qui est facilement fracturable, il faut perpétuer et préserver le puits en évitant que le foret se coince dans la couche de sel. «Le forage du sel en soi n’est pas compliqué, le problème c’est le déplacement de la couche de sel qui peut obturer le puits”, déclare le professeur Giuseppe Bacoccoli, membre du département de pétrole et de gaz de la Coppe-UFRJ et ancien employé de Petrobras. Contenir l’écroulement est une mission particulièrement difficile pour un type de roche saline appelée tachyhydrite. Les deux autres sont l’halite et la carnalite qui sont plus résistantes. Les équipes doivent donc être rapides pour préserver le puits et récupérer les forets qui sont souvent perdus dans la couche pré-sel du bassin de Santos. Ciment et acier Pour forer un puits, il faut utiliser un revêtement en acier et remplir l’espace situé entre celui-ci et la roche avec un ciment spécial. Malgré ces précautions, la pression du sel peut déformer l’acier. Pour éviter cela, l’entreprise étudie de nouveaux matériaux plus résistants. «Si le revêtement est trop lourd, ils gênera la progression de la sonde dans le puits. Il faut trouver un équilibre», souligne le géologue Cristiano Sombra, coordonnateur du Prosal. Comme il s’agit d’un nouveau domaine d’étude, il faut prendre toutes les précautions nécessaires qui impliquent de nombreuses études d’ingénierie et la coordination du Centre de Recherches de Petrobras (Cenpes) et de son département d’exploitation et de production. Le forage du premier puits a coûté 240 millions de dollars. Petrobras a dépensé 1,7 milliard de dollars pour creuser 15 puits. Les prochains forages ne devraient coûter que 60 millions de dollars. «Dans le bassin de Campos, le coût du forage de la couche pré-sel devrait s’élever à 15 millions de dollars maximum», souligne le professeur Bacoccoli. Pour l’exploitation en eaux très profondes, les problèmes dûs aux conduites flexibles (risers) qui transportent le pétrole et le gaz jusqu’à la plateforme semblent désormais résolus. «Les risers utilisés à des profondeurs supérieures à 2 500 mètres sont en phase finale de mise au point et d’homologation», déclare le professeur Celso Pesce du Département d’Ingénierie Mécanique de la Poli. «Ces nouveaux risers seront utiles, même pour les forages ne concernant pas la couche pré-sel», dit-il. Celso Pesce et d’autres chercheurs de la Poli, mènent des études visant à analyser le comportement structurel et mécanique des risers pétroliers dans des projets menés en partenariat avec Petrobras et les entreprises qui fabriquent ces conduites. Cette recherche est financée par la FAPESP, la Finep et le Conseil National de Développement Scientifique et Technologique (CNPq), y compris pour les risers de grandes profondeurs. Les études analysent le rapport entre le mouvement des unités flottantes et l’action des vagues et du vent ainsi que la force exercée sur les risers qui vibrent avec le courant. La Poli étudie, entre autres, comment maintenir ces structures en fonctionnement à des profondeurs de 3 mille mètres sans fatigue mécanique. Celso Pesce indique un autre défi à relever pour les risers utilisés dans la couche pré-sel. «La température de l’huile qui sera extraite est de 60 à 70 degrés Celsius avec une très forte pression interne. La couche externe du tube en contact avec l’eau des profondeurs est beaucoup plus froide, environ 4 degrés Celsius, et la perte de chaleur favorise la formation de paraffines qui obstruent la conduite. Ceci se produit également dans les puits de la couche post-sel. La solution utilisée actuellement est d’enlever la paraffine qui se forme à l’intérieur du tube avec un équipement appelé PIG qui fonctionne comme un déboucheur. Il faut concevoir de nouvelles conduites munies d’une isolation ou d’un contrôle thermique et qui évitent la formation de paraffines», souligne Celso Pesce, membre du Réseau de Structures Sous-marines, l’un des quarante réseaux de Petrobras qui compte aussi sur la collaboration de dizaines de centres de recherches brésiliens. La corrosion est un autre aspect que les ingénieurs vont devoir surmonter pour forer des puits à 6 ou 7 mille mètres de profondeur. «Les tubes et les vannes installés au fond de l’océan, appelée arbres de noël, devront être plus résistants car dans cet environnement il y a beaucoup de dioxyde de carbone (CO2) et de soufre», déclare le professeur Nishimoto. «Ces aspects ajoutés à l’agressivité chimique et à l’instabilité structurelle du sol ne sont pas habituels pour Petrobras”, souligne le professeur Trevisan de l’Unicamp. Des emplois sont disponibles Les différents défis à relever vont provoquer une forte demande en professionnels. Leur nombre est encore incertain, mais les domaines sont déjà définis. «On aura besoin de professionnels dans le domaine métallo-mécanique, la pétrochimie, la logistique et les services, par exemple», souligne le professeur Trevisan. Les étudiants formés par les universités et les instituts de recherche seront toujours sollicités par l’entreprise. «En plus de 20 ans, le Cepetro a déjà formé plus de 300 maîtres et docteurs qui sont allés travailler chez Petrobras». De nombreux étudiants viennent également de l’Université Fédérale du Rio Grande do Sul, de l’UFRJ, de l’USP et de l’Université Publique Pauliste (Unesp), où a démarré la construction de l’Unespetro sur le campus de Rio Claro. Il s’agit d’un complexe tourné vers la recherche et l’enseignement appliqués à l’industrie du pétrole, mettant l’accent sur la géologie et l’environnement. L’investissement initial pour la construction et l’achat des équipements s’élève à 5 millions de R$ qui seront entièrement financés par Petrobras. Le Centre de Géologie Sédimentaire (CGS) et le Centre d’Excellence en Géologie des Carbonatées (Nopec) seront installés dans un bâtiment de 1 600 m². «Petrobras a contacté l’Unesp au mois de mai 2007 après avoir pris la décision de créer un centre de recherche brésilien sur les roches carbonatées, celles qui se trouvent dans la couche pré-sel et qui contiennent les gisements de pétrole et de gaz récemment découverts», annonce le professeur Dimas Dias Brito, du département de Géologie Appliquée de l’Institut de Géosciences et de Sciences Exactes et responsable du projet Unespetro. «Le cours de géologie de Rio Claro existe depuis près de 40 ans et de nombreux professeurs, dont moi-même, ont déjà travaillé chez Petrobras», déclare-t-il. Les investissements de Petrobras ont permis que 18 de leurs géologues dispensent cette année un cours sur les roches carbonatées à l’Unesp pendant six mois. «Dans ce centre nous allons étudier tous les types de roches calcaires de la côte atlantique brésilienne, du pré-sel au post-sel. Les défis de la géologie sont énormes et spectaculaires. Aujourd’hui les géologues brésiliens, représentés par nos collègues de Petrobras, vivent un moment magique ”, conclut Dias Brito. Une histoire ancienne Une conjonction intéressante de facteurs géologiques et climatiques a créé de manière aléatoire le pétrole et le gaz du sous-sol marin, sous une couche de sel située le long du littoral sud-est/sud et distante de la côte. Cette réserve contient des roches carbonatées qui ont été produites par des cyanobactéries, il y a des millions d’années. Le démembrement du supercontinent Gondwana, qui a engendré l’Amérique du Sud et l’Afrique, a créé ici et là des lacs au cours d’une période comprise entre 113 millions et 145 millions d’années. L’eau de mer les a ensuite envahis et les bactéries ont alors commencé à interagir et à se développer dans ce tout nouvel écosystème carbonaté en milieu ras avec des températures et une salinité élevées. Cette action microbienne a généré des ensembles calcaires qui plus tard allaient héberger le pétrole créé par la transformation de la matière organique issue du plancton et de microorganismes qui se sont accumulés dans les anciens lacs. Durant des millions d’années, l’enterrement progressif des roches lacustres a réchauffé et exercé une pression sur cette matière qui s’est transformée en hydrocarbonates (gaz et pétrole). Ils ont été ensuite expulsés vers les roches carbonatées où ils ont été confinés. «La couche imperméable rocheuse de sel qui possède des centaines de mètres d’épaisseur a fonctionné comme un bouclier et a empêché le pétrole de migrer vers les roches de la couche post-sel. Cette couche s’est formée en 500 mille ans dans un espace de temps géologique court et probablement au cours d’une période comprise entre 112 e 113 millions d’années, lors de la grande évaporation de l’océan primitif», explique le professeur Dimas Dias Brito, de l’Unesp. La couche de sel existe également dans d’autres régions, y compris sur terre, comme dans la commune de Carmópolis dans l’état de Sergipe, où Petrobras exploite différents puits. «Même le pétrole du bassin de Campos (exploité depuis les années 70) se trouve sous la couche de sel. Il s’agit d’hydrocarbonates qui ont migré vers les roches supérieures composées de calcaire et d’arénite, à travers les fissures de la couche de sel, vers des zones sous-marines rases, où la couche est plus fine. La plupart du pétrole exploité au Brésil provient de lacs anciens qui ont précédé l’Atlantique Sud». Il souligne que les réserves carbonatées de la couche pré-sel ne sont pas d’énormes cavités remplies de pétrole ou de gaz, mais des couches de roches poreuses reliées entre elles. Bien qu’il n’ait pas davantage de détails sur les nouveaux gisements, Dias Brito rappelle que ces formations carbonatées par l’action des cyanobactéries sont uniques au monde car les autres formations calcaires associées au pétrole ont d’autres origines.

 

 

[post_title] => Défis marins [post_excerpt] => Défis marins [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => defis-marins [to_ping] => [pinged] => [post_modified] => 2013-06-06 12:20:26 [post_modified_gmt] => 2013-06-06 15:20:26 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=120119 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [1] => stdClass Object ( [ID] => 120159 [post_author] => 23 [post_date] => 2013-06-04 17:50:41 [post_date_gmt] => 2013-06-04 20:50:41 [post_content] => Publié en janvier 2009 [caption id="attachment_120522" align="alignright" width="216"]Avions au-dessus de São Paulo: moins de bruit dans le futur Avions au-dessus de São Paulo: moins de bruit dans le futur[/caption] Le trafic aérien mondial a augmenté de manière continue au cours de ces dernières décennies et va poursuivre cette trajectoire. L’Association Internationale de Transport Aérien (Iata) estime que le nombre de voyageurs atteindra les 2,75 milliards en 2011 (pour 2,13 milliards début 2007). Un des enjeux de l’industrie aéronautique, pour évoluer sans porter préjudice à la qualité de vie dans les villes, sera de projeter et de mettre au point des avions plus silencieux qui pourront opérer dans les aéroports sans incommoder les personnes vivant aux alentours. Ce besoin est encore plus urgent suite aux nouvelles exigences de la Federal Aviation Administration (FAA), organe régulateur du secteur aérien étasunien, qui limitent encore plus l’émission de bruits aériens dans les aéroports et qui doivent entrer en vigueur à partir de 2015. Embraer, troisième constructeur mondial d’avions, a récemment lancé un vaste projet appelé Avion Silencieux pour respecter ces nouvelles exigences et rester compétitif sur le marché mondial. Il s’agit d’une étude aéroacoustique visant à identifier les bruits propagés par leurs modèles. Ces données permettront de mettre au point des systèmes en ingénierie qui rendront les avions plus silencieux. «Dans les grandes villes le volume sonore des avions vient juste après celui des voitures», déclare l’ingénieur Micael Gianini Valle do Carmo, responsable du projet Embraer. «Cette étude portant sur les bruits externes de nos avions est née il y a quelques années avec les projets des modèles d’avions à réaction Embraer 170/190, beaucoup plus grands que ceux fabriqués précédemment». Le programme se focalise sur les bruits aérodynamiques créés par le flux d’air qui passe autour des ailes et du fuselage de l’avion. Ce projet est cofinancé par la FAPESP, à travers le programme Recherche en Partenariat pour l’innovation technologique (Pite), et par Embraer pour un montant de 11 millions de R$ sur 3 ans. Les progrès technologiques de ces dernières années ont rendu les moteurs d’avion plus silencieux, mettant ainsi en évidence les bruits aérodynamiques. Au cours de l’atterrissage, 75 % à 80 % des bruits produits par les avions sont d’origine aérodynamique et le reste est provoqué par le moteur. Au décollage, quand l’avion a besoin de plus de puissance pour prendre son envol, ce rapport s’inverse. «Les principales sources de bruits aérodynamiques à l’atterrissage et au décollage sont le train d’atterrissage et les surfaces hypersustentatrices, nom donné à l’ensemble formé par l’aile, les volets et les becs (flaps et slats), dispositifs mobiles placés sur les ailes qui permettent d’augmenter la surface portante de l’avion. Le bruit est causé par des tourbillons d’air et par les fluctuations de pressions sur ces points», déclare l’ingénieur Julio Romano Meneghini, professeur à l’École Polytechnique de l’Université de São Paulo (USP) et coordonnateur général du projet. Outre l’École Polytechnique, cinq autres centres d’enseignement et de recherche brésiliens et quatre centres étrangers travaillent sur ce programme. Il s’agit de l’École d’Ingénierie de São Carlos de USP, de l’Université Fédérale de Santa Catarina (UFSC), de l’Université de Brasília (UnB), de l’Institut Technologique Aéronautique (ITA), de l’Université Fédérale d’Uberlândia (UFU), de l’Université de Twente, en Hollande, de l’Imperial College et l’Université de Southampton en Angleterre et du Centre Aérospatial Germanique DLR en Allemagne. Les chercheurs ont l’intention d’aborder le problème sous 3 angles différents mais complémentaires en termes aéroacoustiques comme les essais en vol et en soufflerie, les modèles analytiques, empiriques et aéroacoustiques informatisés. Cette dernière approche sera étudiée au Centre de Dynamique des Fluides (NDF) de l’École Polytechnique de l’USP, qui recevra un superordinateur composé de plus de 1.200 unités centrales de traitement (CPU) et d’une mémoire de 2,5 téraoctets, le tout financé par le projet. «Nous allons modeler et simuler numériquement l’écoulement d’air autour des surfaces hypersustentatrices et du train d’atterrissage. Cette simulation nous permettra de comprendre les structures des tourbillons (sillage) et nous pourrons ainsi évaluer les bruits générés par ces surfaces», déclare Meneghini. «Avec l’aide du superordinateur, l’un des plus performants du pays, nous allons concrètement comprendre le phénomène complexe associé au bruit aérodynamique et proposer ensuite des modifications à Embraer en matière de géométrie des ailes, des volets, des becs et du train d’atterrissage, etc.», dit-il. La partie expérimentale du programme se déroulera sur la piste de l’unité d’Embraer située dans la commune de Gavião Peixoto, dans l’état de São Paulo. Son objectif sera d’identifier les sources de bruit aérodynamique pour les quantifier. Pour obtenir ces informations, 256 microphones seront placés sur une zone de 50 mètres sur 50 à l’une des extrémités de la piste afin de capter le bruit produit par les avions qui se poseront et décolleront de nombreuses fois. Ce nombre de microphones est nécessaire car le bruit propagé par les avions est très complexe. «Grâce au traitement des données acoustiques, nous pourrons respectivement connaitre le pourcentage sonore attribué aux volets, au train d’atterrissage, aux becs, etc.», souligne Meneghini. Selon le chercheur, les résultats de ces essais permettront, entre autres, de mettre au point des kits de réduction de bruit aérodynamique qui seront placés à des endroits spécifiques de l’avion. Cette partie du travail dépendra de l’UFSC et de l’École d’Ingénierie de São Carlos. «Nous serons responsables du développement d’outils expérimentaux et du diagnostic des sources de bruit des avions», déclare le professeur César José Deschamps, du Département d’Ingénierie Mécanique de l’UFSC. «Nous allons également réaliser des études pour comprendre le bruit aéronautique d’un point de vue plus théorique et ainsi utiliser les meilleures méthodologies pour le prévoir. Nous pourrons ainsi proposer des modifications pour les futurs avions d’Embraer», déclare Deschamps. L’Université de Brasília (UnB) est chargée d’un autre aspect du projet concernant l’étude des bruits créés par la turbine. La turbine est un type d’hélice muni de nombreuses pales, c’est la seconde source de bruit des systèmes propulsifs des avions, la première étant le jet d’air chaud expulsé par la turbine. Bien qu’Embraer ne fabrique pas les moteurs de ses avions (ils sont fournis par l’entreprise américaine General Electric), elle s’intéresse à ce type de bruit car elle fabrique la nacelle, structure métallique qui reçoit le moteur turbofan. «La nacelle est la première ligne de front contre les bruits du moteur», annonce le professeur Roberto Bobenrieth Miserda, de l’Institut de Technologie de l’UnB. Selon Julio Meneghini, les institutions étrangères impliquées dans le programme jouent un rôle important. L’Université de Twente, en Hollande, fournira une soufflerie pour les essais aéroacoustiques. L’Université de Southampton et l’Imperial College, en Angleterre, mettront leurs compétences au service de la mise au point de modèles analytiques simplifiés et de simulateurs «Ils possèdent une longue expérience dans ce domaine et utiliseront ces modèles empiriques pour calculer les estimations en termes de bruit», déclare Meneghini. Des échanges entre des étudiants brésiliens, hollandais et anglais sont également prévus. Les régions des ailes et du train d´atterrissage sont les principales sources de bruit des avionsLe projet Avion Silencieux qui favorisera l’avancée théorique de méthodologies et la création d’outils pour comprendre les phénomènes aéroacoustiques, contribuera également à la formation de ressources humaines spécialisées dans ce domaine, car il y a peu de professionnels brésiliens spécialisés en aéroacoustique. Une partie des fonds du programme sera donc destinée au financement de bourses d’initiation scientifique, de maîtrise, de doctorat et de post-doctorat pour des élèves impliqués dans des recherches liées au programme. «Nous voulons créer un centre de compétences dans le domaine acoustique et former des spécialistes hautement qualifiés au profit de l’industrie aéronautique», souligne l’ingénieur Deschamps, de l’UFSC. Actuellement, une partie des études et de l’évaluation des niveaux sonores externes des avions d’Embraer est réalisée par des consultants internationaux, avec certaines difficultés, comme une réponse tardive aux situations critiques. On estime qu’environ 40 étudiants participeront au projet, outre les 25 chercheurs d’Embraer et des universités. Des programmes identiques à ceux financés par la FAPESP et Embraer sont en train d’être développés par des entreprises et des institutions de recherches aérospatiales aux États-Unis et en Europe. La NASA (agence spatiale nord-américaine) par exemple, développe le projet Quiet Aircraft Technology (QAT), dont l’objectif est de réduire les bruits des avions de moitié d’ici 10 ans et de 75 % d’ici 25 ans. On estime que les premiers avions qui utiliseront certaines des avancées du QAT seront fabriqués à partir de 2010. Un autre programme américain appelé Advanced Subsonic Technology (une collaboration entre la NASA, le gouvernement fédéral et le secteur privé) vise à mettre au point des dispositifs de réduction de bruit de 20 décibels d’ici 2020, par rapport aux technologies utilisées en 1997. C’est un objectif osé qui, s’il se concrétise, représentera une réduction d’environ 20 % des bruits générés par un Boeing 777 au cours de l’atterrissage, sur les 100 décibels qu’il produit actuellement. La Communauté Européenne sponsorise également le projet thématique Silence(R) avec la collaboration de 51 entreprises et de 14 pays pour un budget de plus de 110 millions d’euros. Son objectif est de valider des technologies visant à atteindre une réduction de six décibels pour des avions plus silencieux. Retraite forcée Un jet anglais a été retiré de la circulation à cause du bruit de ses moteurs Un des meilleurs avions britanniques, le BAC 1-11 (One Eleven), a été retiré de la circulation à cause du bruit de ses moteurs. Cet avion, mis au point par Hunting Aircraft et fabriqué pour British Aircraft Corporation (BAC), a été lancé au début des années 60 et a volé environ 30 ans, jusqu’à sa retraite forcée pour des raisons de restrictions sonores. D’autres avions comme le Boeing 737-200, le Douglas DC-8 et le Tupolev Tu-154, auraient connu le même sort sans l’invention d’un équipement antibruit appelé hush kit, créé pour réduire le bruit des anciens moteurs turbofan de type low-bypass. Les modèles actuels (high-bypass) sont beaucoup plus silencieux. Le hush kit est un type d’exhausteur placé à la sortie de la turbine et qui sert à étouffer le bruit des turbines des anciens avions. Cette technologie a également permis de réduire les émissions de gaz polluants du moteur. LE PROJET  Avion Silencieux: Une recherche aéroacoustique MODALITÉ Recherche en Partenariat pour l’Innovation Technologique (Pite) COORDONNATEUR JULIO ROMANO MENEGHINI – USP INVESTISSEMENT 707.506,58 réaux et 1.709.305,41 dollars (FAPESP) 6.000.000,00 réaux (Embraer) [post_title] => Des avions plus silencieux [post_excerpt] => Des avions plus silencieux [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => des-avions-plus-silencieux [to_ping] => [pinged] => [post_modified] => 2013-06-05 17:07:37 [post_modified_gmt] => 2013-06-05 20:07:37 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=120159 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [2] => stdClass Object ( [ID] => 120190 [post_author] => 22 [post_date] => 2013-06-04 18:20:14 [post_date_gmt] => 2013-06-04 21:20:14 [post_content] => Publié en décembre 2007 [caption id="attachment_120527" align="alignright" width="300"]Polymère biodégradable produit par des bactéries Polymère biodégradable produit par des bactéries[/caption] La forte augmentation des consommateurs et la pression exercée sur les coûts des matériaux issus du pétrole ont amené les industries du plastique à rechercher, dans des sources renouvelables, des matières premières de remplacement pour leurs produits. Des plastiques recyclables à base d’éthanol de canne à sucre ainsi que des polymères biodégradables produits par des bactéries nourries de saccharose et d’autres substances sont dans la ligne de mire des recherches et des investissements annoncés par des géants pétrochimiques tels que Dow Química, Braskem et Oxiteno – des fabricants de résines plastiques à base de naphte et d’autres matériaux dérivés du pétrole. Leader latino-américain pour la production de résines, l’entreprise Braskem a investi 5 millions de dollars en recherche et développement pour développer un polyéthylène certifié à partir d’alcool de canne à sucre : le « polymère vert ». Si les recherches sur ce nouveau produit ont débuté en 2005, l’entreprise a cependant commencé à évaluer dès 1998 les propriétés d’autres polymères issus de matières premières renouvelables existantes sur le marché. Mais le sujet a finalement été laissé de côté car à l’époque il n’y avait pas encore de marché réellement intéressé par ce type de produit. Pour Antônio Morschbacker, directeur technologique de Polymères Verts du Pôle Pétrochimique de Triunfo (état du Rio Grande do Sul) et responsable du développement du projet, « lorsque nous avons repris les discussions, nous avons évalué les options existantes et commencé à travailler avec le polyéthylène vert à partir de l’alcool de canne à sucre ». Les informations recueillies ont montré que l’entreprise pourrait produire un produit compétitif. Morschbacker explique qu’« au cours de 2005, après en avoir évalué les coûts, nous avons constaté que sa fabrication serait viable ; en 2006, nous avons décidé de construire l’usine pilote et de faire en parallèle une étude plus approfondie du marché mondial [ ...] Très efficace, le processus transforme 99 % du carbone contenu dans l’alcool en éthylène, la substance de base du polyéthylène ». Le sous-produit principal est l’eau, qui peut être purifiée et réutilisée. Déshydratation de l’éthanol Dans l’usine pilote qui est entrée en fonctionnement en juin 2007, l’éthanol obtenu par un processus biochimique de fermentation, de centrifugation et de distillation du jus de la canne à sucre est ensuite transformé en éthylène. La conversion se fait au moyen d’un processus de déshydratation, dans lequel sont ajoutés des catalyseurs à l’éthanol chauffé – des composants qui accélèrent les réactions chimiques et permettent sa transformation en gaz éthylène. Pour obtenir du polyéthylène, le plastique le plus utilisé au monde, le processus de fabrication est le même que celui utilisé pour les matériaux issus de sources fossiles ; autrement dit, l’éthylène polymérisé donne le polyéthylène. La polymérisation est une réaction où les plus petites molécules (monomères) s’unissent chimiquement pour former de grandes molécules ramifiées. Avec l’éthylène produit selon cette technologie, il est possible de faire tout type de polyéthylène. Braskem a l’intention de produire dans un premier temps des résines de haute et de faible densité, pour des applications rigides et flexibles dans des secteurs comme l’automobile, l’emballage d’aliments, l’emballage de cosmétiques et d’articles d’hygiène. Certains clients brésiliens et étrangers reçoivent déjà des échantillons de polymère vert produits à une échelle pilote. Le début de la production à échelle industrielle est prévu pour la fin 2009 et devra atteindre 200 000 tonnes/an. L’entreprise n’a pas encore défini le lieu de l’installation de l’usine qui fabriquera le nouveau polymère et dont l’investissement sera de près de 150 millions de dollars. D’un coût entre 15 à 20 % supérieur à celui des polymères traditionnels, le produit sera surtout destiné aux marchés asiatique, européen et nord-américain. Le polymère vert remporte déjà un franc succès, alors qu’il n’a pas encore été lancé à échelle commerciale. Lors du Salon International du Plastique et du Caoutchouc (K 2007), le plus grand événement de l’industrie pétrochimique qui s’est tenu fin octobre à Düsseldorf, Allemagne, Morschbacker a fait dix présentations très courues du produit en huit jours et rencontré un grand nombre de personnes intéressées par le produit et le projet. Le polyéthylène d’éthanol a été certifié par le laboratoire nord-américain Beta Analytic, par la technique du carbone-14, comme un produit fabriqué avec 100 % de matière première renouvelable. Dans le cas de l’éthanol, la matière première est renouvelable, mais le produit final n’est pas biodégradable. Selon Morschbacker, « le produit possède des propriétés identiques à celles des polyéthylènes produits à partir du pétrole. Comme c’est un plastique très résistant et stable, il peut être recyclé et réutilisé plusieurs fois et, à la fin de sa durée de vie utile, il peut être incinéré sans aucune atteinte à l’environnement ». Le grand avantage environnemental du polyéthylène de l’alcool est que pour chaque kilo de polymère produit, environ 2,5 kilos de gaz carbonique – le dioxyde de carbone – sont absorbés de l’atmosphère par la photosynthèse de la canne à sucre. Pôle Alcool Chimique L’entreprise Dow Química s’apprête également à produire du polyéthylène à partir de l’éthanol. En juillet dernier, elle a annoncé une joint-venture avec Crystalsev, trading brésilienne de sucre et d’alcool contrôlée par Vale do Rosário (à Morro Agudo) et Santa Elisa (à Sertãozinho), deux usines situées dans l’état de São Paulo, en vue de créer un pôle alcoochimique intégré. Ce nouveau pôle qui débutera ses opérations en 2011 sera capable de produire 350 tonnes/an de polyéthylène de faible densité, connu sous le nom commercial de Sowlex et destiné à la fabrication d’emballages flexibles, de films industriels et d’articles injectés. Au début le produit sera vendu sur le marché interne, en augmentation de 6 à 7 % par an. Dow fabrique déjà le produit à partir du naphte d’origine pétrolière dans des usines en Asie et en Europe. Pour transformer l’éthanol en polyéthylène, Dow utilise aussi le processus de déshydratation. Des catalyseurs modernes permettent d’obtenir un éthylène aussi pur que celui produit à partir du pétrole. L’eau rejetée pendant le processus de transformation de l’éthanol en éthylène sera utilisée dans le système de production de vapeur pour la génération d’énergie électrique. On estime que le projet va créer près de 3 200 emplois directs et des centaines d’emplois indirects dans les secteurs agricole, industriel et manufacturier. L’usine de polyéthylène va consommer 700 millions de litres d’alcool/an, l’équivalent de 8 millions de tonnes de canne à sucre. Les deux entreprises participeront en tant qu’associées à toutes les étapes, de la plantation d’une cannaie de 120 000 hectares jusqu’à la fabrication et la commercialisation du plastique. L’intégration complète du cycle donnera au pôle la possibilité d’être autosuffisant d’un point de vue énergétique et de produire un excédent d’énergie (provenant de la bagasse de la canne à sucre) suffisant pour répondre aux besoins d’une ville de 500 000 habitants. Le lieu où sera installé le pôle n’a pas encore été choisi, mais des villes de la région centre-sud du pays font actuellement l’objet d’analyse. Diego Donoso, directeur du secteur Plastiques de Dow pour l’Amérique latine, observe que « le prix du polyéthylène produit à partir de l’éthanol sera établi en tenant compte des mêmes forces d’offre et de demande qui affectent le prix du polyéthylène produit à partir du naphte. [...] Le client final recevra un produit dont les caractéristiques techniques et la performance seront les mêmes que celles du polyéthylène conventionnel, cependant la production augmentera sa valeur ajoutée ». Hydrolyse acide L’entreprise Oxiteno, du Groupe Ultra, a un projet similaire à celui de Dow. Elle prévoit de construire une bioraffinerie qui produira du sucre et de l’alcool à partir de la bagasse, de la paille et des tiges de canne à sucre, au moyen d’une technologie appelée hydrolyse acide. Pas encore maîtrisée à l’échelle commerciale, cette technologie consiste à briser les molécules de cellulose en ajoutant de l’acide sulfurique sur les résidus. La future usine fabriquera également des produits alcoochimiques à partir de technologies non conventionnelles. L’entreprise a établi un partenariat avec la FAPESP en novembre 2006 pour développer des projets de recherche dans le domaine de la technologie de production de sucres, alcool et dérivés. Lors de la première phase (janvier 2007), 23 projets en partenariat avec des instituts de recherche et des universités ont été choisis. Finalement, 7 ont été retenus à l’occasion de la deuxième phase, au mois de juillet. [caption id="attachment_120526" align="alignleft" width="200"]Polymère biodégradable produit par des bactéries Polymère biodégradable produit par des bactéries[/caption] Tandis que les industries pétrochimiques misent sur les plastiques fabriqués à partir de l’éthanol, l’entreprise PHB Industrial (du Groupe Pedra Agroindustrial de Serrana et du Groupe Balbo de Sertãozinho, tous deux dans l’état de São Paulo) fabrique depuis décembre 2000, dans une usine pilote, un plastique biodégradable produit par des bactéries naturelles. Ce plastique est vendu en petites quantités sous le nom commercial de Biocycle aux États-Unis, au Japon et à des pays européens. La matière première est surtout utilisée dans la fabrication de plastiques rigides produits par le processus d’injection, ainsi que dans des mousses en remplacement du polystyrène. Le Biocycle s’applique aussi à la production de substituts de polyuréthane, de plaques bioplastiques et de produits thermoformés. Prévue pour ouvrir ses portes en 2010, l’usine industrielle qui produira à grande échelle sera implantée dans la région de Ribeirão Preto. D’après le physicien Sylvio Ortega Filho, directeur exécutif du développement du plastique de PHB Industrial, « la production de plastique biodégradable représentera entre 10 et 30 000 tonnes/an ». Le projet a compté sur la participation de l’Institut de Recherches Technologiques (IPT), du Centre de Technologie sur la Canne à sucre (CTC) et de l’Institut des Sciences Biomédicales (ICB) de l’Université de São Paulo, et il a été financé par la FAPESP à travers le Programme Innovation Technologique dans les Petites Entreprises (Pipe) [cf. Pesquisa Fapesp nº 80]. Polyester naturel La production de polymère est faite par la culture de la bactérie Alcaligenes eutrophus, actuellement appelée Cupriavidus necator, dans un milieu de culture avec le saccharose présent dans le sucre. Le saccharose est transformé en glucose pour alimenter les bactéries. « La chaîne de carbone du glucose est transformée par la bactérie dans le polyhydroxybutyrate (PHB) », explique le professeur Elisabete José Vicente de l’Institut des Sciences Biomédicales (ICB) de l’Université de São Paulo (USP). Elle a participé aux études à l’origine du plastique biodégradable et dirige actuellement certaines recherches sur la production de polymères à partir de bactéries. Le PHB appartient au groupe de polymères dénommés polyhydroxyalcanoates (PHA), des polyesters accumulés par des microorganismes sous la forme de granulés intracellulaires. Leurs propriétés thermoplastiques permettent, une fois extraits de l’intérieur de la cellule productrice au moyen de solvants organiques, leur purification et leur traitement pour donner un produit biodégradable, compostable et biocompatible. Ces polymères peuvent avoir diverses applications, de la production de films ou de structures rigides aux utilisations médicales et vétérinaires : réalisation de sutures, supports pour la culture de tissus, implants, encapsulation de médicaments pour une libération contrôlée et autres, en utilisant la nanotechnologie. Elisabete José Vicente signale que « jusqu’à aujourd’hui, plus de 150 bactéries différentes accumulant naturellement ce granulé cytoplasmique ont été identifiées ». La bactérie Cupriavidus necator se distingue car elle réussit à accumuler une grande quantité de polymère, entre 80 et 90 % de son poids sec. Pour croître, elle a besoin de fructose ou de glucose. « Réalisée il y a déjà plusieurs années, la première amélioration génétique de la bactérie a engendré un type mutant capable de croître en glucose, une matière première moins chère que le fructose », ajoute-t-elle. Au Brésil, les recherches débutées en 1992 par Elisabete José Vicente et le professeur Ana Clara Guerrini Schenberg, également de l’ICB, ont résulté en une nouvelle bactérie mutante capable de croître dans le saccharose de la canne à sucre et en une autre bactérie recombinante permettant une plus grande production de copolymère PHBV, plus malléable. Modifications génétiques La bactérie fabrique naturellement le polymère, mais les améliorations génétiques permettent d’augmenter considérablement la production. Dans le projet développé entre l’entreprise PHB et les institutions partenaires, certaines bactéries génétiquement modifiées ont été développées et brevetées. Ortega observe que « seule la bactérie naturelle est utilisée pour produire le biopolymère, car l’Europe interdit les organismes génétiquement modifiés ». La demande en polymères de sources renouvelables porte essentiellement sur trois grandes applications dans le marché mondial : le marché des emballages ; l’industrie automobile, qui souhaite remplacer les produits utilisés dans les voitures par des produits qui ne contribuent pas au réchauffement de la planète, une exigence des marchés européens ; et le domaine médical. Le partenariat avec PHB n’a pas seulement permis de créer un produit qui est déjà sur le marché, il a aussi donné suite aux recherches menées à l’université. Le groupe coordonné par Elisabete José Vicente mène deux types de travaux. L’un d’eux recherche des bactéries qui réussissent à produire du polymère à partir d’autres sources de carbone que le saccharose, comme les déchets produits par l’industrie. « Ce procédé permettrait de baisser le coût de production du biomatériau, jusqu’à trois fois plus élevé que celui du plastique dérivé du pétrole », souligne la chercheuse. Parallèlement, le groupe étudie des applications du biopolymère, une fois purifié, comme substrat pour la croissance de cellules souches – une ligne de recherche dirigée en collaboration avec le professeur Radovan Borojevic, directeur du programme avancé de Biologie Cellulaire Appliquée à la Médecine de l’Université Fédérale de Rio de Janeiro. Une autre recherche étudie l’emploi du polymère pour l’immobilisation d’enzymes et de substances pharmaceutiques, en partenariat avec Mário Politi, professeur de l’Institut de Chimie de l’USP et coordonnateur du Groupe de Recherches en Nanotechnologie du Conseil National de Développement Scientifique et Technologique (CNPq), et Carlos Alberto Brandt, également professeur et membre du même centre de recherche. À l’Institut des Sciences Biomédicales de l’USP, un autre groupe coordonné par le professeur Luiziana Ferreira da Silva travaille sur la production de matériaux biodégradables. Elle a aussi participé au développement de la production du plastique biodégradable de l’entreprise PHB, mais en faisant partie du Centre de Recherches Technologiques (IPT). En 2002, elle a développé un procédé pour l’utilisation de la bagasse de la canne à sucre pour la production de PHB. Des bactéries capables de croître dans la bagasse et non dans le jus où se trouve le saccharose, brisé en molécules plus petites par hydrolyse acide, ont été sélectionnées. Une autre recherche étudie le développement d’un plastique hybride produit par des bactéries. Mais au lieu d’être nourries avec le sucre de la canne à sucre, elles reçoivent un acide gras de six carbones. « Vu que l’on offre de l’huile aux bactéries, elles commencent à produire un élastomère très similaire à celui du caoutchouc », déclare Luiziana Ferreira da Silva. L’objectif de cette étude est d’obtenir un autre type de matériau plastique, qui pourra notamment être utilisé pour recouvrir des couches, des tapis jetables et pour d’autres applications. Applications médicales Fils de suture chirurgicale, mailles de renfort dans la chirurgie réparatrice des hernies, membranes pour le traitement de lésions veineuses et artérielles et tubes pour les greffes artérielles sont quelques-uns des produits développés par le Groupe de Recherches sur le Polymère de Canne à sucre, un partenariat entre l’Université Fédérale de l’état du Pernambuco (UFPE) et l’Université Fédérale Rurale de l’état du Pernambuco (UFRPE). « Tous ces produits ont fait l’objet de recherches expérimentales aux résultats excellents », affirme José Lamartine de Aguiar, professeur et coordonnateur du groupe. Les recherches ont débuté en 1990, quand Francisco Dutra, ingénieur chimiste de l’UFRPE, a identifié des formations polymériques dans le processus de fermentation pour la production d’alcool. Le biopolymère est obtenu à partir de sous-produits de la canne à sucre, comme la mélasse. Les caractéristiques physiques et chimiques du biopolymère après purification ont éveillé l’intérêt de chercheurs de plusieurs domaines. D’après Aguiar, « dans un premier temps le matériau a été appliqué sur des animaux de laboratoire, après les tests de cytotoxicité et de biocompatibilité ». Brevetée par l’UFPE, la production du biopolymère sera effectuée par une bio-usine bientôt prête à fonctionner et située dans la Station Expérimentale de Canne à sucre de Carpina (campus de l’UFRPE dans la région forestière de l’état de Pernambuco). LE PROJET Obtention et caractérisation de polymères écologiquement biodégradables (PAD) à partir de sources renouvelables: canne à sucre MODALITÉ Programme Innovation Technologique dans les Petites Entreprises (Pipe) COORDONNATEUR JEFTER FERNANDES DO NASCIMENTO – Industrial PHB INVESTISSEMENT 333 686,30 réaux (FAPESP). [post_title] => Plastique renouvelable [post_excerpt] => Plastique renouvelable [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => plastique-renouvelable [to_ping] => [pinged] => [post_modified] => 2013-06-05 17:16:09 [post_modified_gmt] => 2013-06-05 20:16:09 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=120190 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [3] => stdClass Object ( [ID] => 120417 [post_author] => 22 [post_date] => 2013-06-05 13:04:50 [post_date_gmt] => 2013-06-05 16:04:50 [post_content] => Publié en novembre 2008 [caption id="attachment_120531" align="alignright" width="300"]Galettes de silicium, semi-conducteur à la base de la puce de mémoire Galettes de silicium, semi-conducteur à la base de la puce de mémoire[/caption] Une mémoire électronique qui conserve l’information même quand elle n’est pas branchée à une source d’énergie, utilisée sur des cartes à puces intelligentes (smart cards), des tickets de transport public, des téléphones portables, la TV numérique et les transactions bancaires, sera produite dans une nouvelle usine qui sera construite à partir de 2009 dans la ville de São Carlos (état de São Paulo). La présence dans la région du Centre Multidisciplinaire pour le Développement de Matériaux Céramiques – un des Centres de Recherche, Innovation et Diffusion (Cepid) de la FAPESP, qui travaille en collaboration avec l’Université d’état de São Paulo (Unesp) d’Araraquara et de l’Université Fédérale de São Carlos (UFSCar) –, a été décisive dans le choix de la ville qui recevra l’usine de semi-conducteurs ferroélectriques. Partenaire du projet, le centre sur les matériaux céramiques a déjà formé 25 docteurs et 17 titulaires d’un master en matériaux ferroélectriques depuis 2000, date de la création de ce Cepid. Plusieurs de ces professionnels ou étudiants en fin de formation pourront travailler dans l’usine brésilienne. Au départ, la mémoire à accès aléatoire ferroélectrique (FRAM), également connue sous le nom de mémoire non-volatile, sera produite au moyen d’une technologie développée par l’entreprise nord-américaine Symetrix, créée aux États-Unis il y a 18 ans par le Brésilien Carlos Paz de Araújo, professeur d’ingénierie électrique à l’Université du Colorado. Le centre participera également de manière active au développement de nouvelles mémoires ferroélectriques et de nouveaux matériaux. José Arana Varela, physicien, professeur de l’Institut de Chimie d’Araraquara, recteur adjoint en charge de la recherche de l’Unesp et responsable du secteur innovation du Cepid, observe : « Nous allons orienter la recherche appliquée vers de nouveaux matériaux ferroélectriques, sans pour autant laisser de côté la recherche de base ». Développé par le centre sur les céramiques selon une nouvelle méthode, assez simple et bon marché, un film mince ferroélectrique – constitué de couches très fines de matériau semi-conducteur – a de grandes chances d’être choisi pour être utilisé postérieurement dans les puces de mémoire fabriquées dans l’usine de São Carlos. « Nous avons réussi à obtenir de nouveaux matériaux dotés d’une capacité de stockage 250 fois supérieure à celle des mémoires conventionnelles », déclare le chimiste Elson Longo, également directeur général du Centre Multidisciplinaire pour le Développement de Matériaux Céramiques (CMDMC). Ces nouveaux matériaux sont produits à partir d’une solution organique obtenue par le mélange d’acides citriques présents dans des fruits tels que l’orange et le citron (cf. Recherche FAPESP nº 52) et de baryum, plomb et titane. Varela explique que « le composé est chauffé dans un four simple à 300ºC afin d’en extraire certains éléments organiques comme le carbone ». Puis on procède à la cristallisation du matériau dans un micro-onde domestique pour obtenir un film mince de titanate de baryum et de plomb. Et Varela de poursuivre : « Au début, nous allons utiliser le procédé de l’entreprise nord-américaine. Plus tard, nous pourrons travailler avec d’autres matériaux que ceux déjà développés pour fabriquer des films (couches très fines de matériau semi-conducteur) moins épais ». Plus le film est mince, plus l’intégration dans le système semi-conducteur sera grande et moins le coût final sera élevé. Comparés aux céramiques magnétiques utilisées pour la mémoire, les films minces ferroélectriques utilisés dans la préparation des dispositifs électroniques ont l’avantage d’être plus petits, moins lourds, plus rapides en termes d’écriture et de lecture et ne requièrent qu’un faible voltage. Les matériaux ferroélectriques permettent de construire des mémoires électroniques qui n’ont besoin d’aucune énergie pour fonctionner. D’après Longo, « la capacité de stockage des informations est liée à la disposition de ses atomes ». Chaque cellule de mémoire consiste en un unique transistor d’accès branché à un condensateur ferroélectrique, un dispositif qui stocke l’énergie dans un champ électrique. Le transistor agit comme un interrupteur, permettant au circuit de contrôle de lire ou d’écrire les signaux 0 et 1 du système binaire qui seront stockés dans le condensateur. Le principe utilisé est le même que celui des semi-conducteurs magnétiques des cartes de crédit ordinaires et des tickets de transport. « La différence, signale Longo, c’est que les cartes magnétiques ont besoin d’être placées devant un lecteur pour transmettre l’information, tandis que les cartes ferroélectriques peuvent être lues jusqu’à six mètres de distance ». La lecture est faite par radiofréquence. D’une taille et d’une épaisseur d’environ deux millimètres carrés, la puce n’est pas apparente. Intégrée dans les cartes ou les téléphones portables par exemple, elle possède un système de protection contre le piratage. [caption id="attachment_120533" align="alignleft" width="300"]La puce de mémoire ferroélectrique peut être lue jusqu´à six mètres de distance La puce de mémoire ferroélectrique peut être lue jusqu´à six mètres de distance[/caption] Au Japon, où la technologie développée par Araújo et son équipe a été brevetée par l’entreprise Panasonic, elle est utilisée sur les cartes de métro, de train et sur les permis de conduire. Il est aussi possible de payer ses achats via le téléphone portable, sans recourir aux cartes de crédit. Au Brésil, dès l’annonce de l’installation de l’usine de nombreuses entreprises ont fait part de leur intérêt pour la technologie. Elles veulent remplacer les cartes magnétiques par les ferroélectriques dans diverses applications. Selon Varela, « une grande banque brésilienne, qui ne souhaite pas importer la technologie pour des raisons de sécurité, nous a contactés pour produire des cartes ». Varela préfère ne pas citer le nom de l’institution financière, car les négociations sont encore en cours. Pour le secteur automobile par exemple, un système anti-collision breveté par Symetrix sera développé. « Avec cette mémoire, il est possible d’installer un système de sécurité sur la voiture avec des capteurs infrarouges, qui fonctionneront comme des caméras de vision nocturne pour détecter la présence de personnes, d’animaux ou de voitures à l’arrêt, à une distance de 100 à 200 mètres devant le véhicule ». Contrôle intégré Dans les supermarchés, l’utilisation de la mémoire ferroélectrique à la place des codes-barres permettra un contrôle intégré des produits. Des informations telles que la date de validité du produit, le nom du fabricant, le prix, le stock et la quantité achetée seront placées sur un dispositif de la taille d’une pointe d’aiguille. « Ce n’est pas seulement un code-barres, mais une mémoire intelligente », observe Longo. « Chaque étiquette dotée d’une puce coûtera moins de 0,01 réais », ajoute pour sa part Varela. L’acheteur saura à l’avance combien il a dépensé en passant à une distance de trois ou quatre mètres d’un panneau. S’il décide de conclure l’achat, le débit sera fait sur la carte de crédit située dans sa poche. D’après Varela, « alors qu’une carte magnétique (comme les cartes de crédit) dure de quatre à cinq ans, la carte ferroélectrique peut être utilisée jusqu’à un trillion de fois au niveau des fonctions de lecture et d’écriture magnétique (la façon dont les informations sont enregistrées sur la mémoire ferroélectrique), ce qui équivaut à une durée de vie utile moyenne de 2 000 ans ». La durée de vie utile des cartes magnétiques est notamment plus faible à cause de la nécessité du contact direct avec le lecteur. Les chercheurs du groupe qui a créé le CMDMC ont commencé à étudier les matériaux ferroélectriques en 1992. Les résultats obtenus ont donné lieu à la publication de 112 articles scientifiques dans des revues brésiliennes et internationales. « Nous avons commencé les recherches à la même époque que Carlos Araújo à l’Université du Colorado », observe Longo. « Nous avons depuis travaillé sur les mêmes composés, mais de son côté il a breveté le procédé mis au point par son équipe et a créé une entreprise ». Professeur d’ingénierie électrique, Araújo a créé l’entreprise Symetrix avec les ressources du Small Business Innovation Research (SBIR), un programme nord-américain de soutien aux petites entreprises innovatrices. C’est ce programme qui a inspiré la mise en place du programme de recherche Innovation Technologique dans les Petites et Micro-entreprises (PIPE) de la FAPESP. Aujourd’hui, l’entreprise possède plus de 200 brevets internationaux. Le partenariat avec les chercheurs brésiliens a débuté lors d’un congrès sur les matériaux semi-conducteurs ferroélectriques qui s’est tenu au Portugal à la fin de l’année 2006. À cette occasion, Araújo a fait part à Varela de son souhait de se rendre au Brésil pour parler de son expérience. Peu de temps après, les chercheurs du centre de céramiques ont organisé un symposium à Natal, dans l’état du Rio Grande do Norte – ville où est né Araújo et où il a passé ses dix-sept premières années, avant de partir aux États-Unis à la fin des années 1960 dans le cadre d’un programme d’échange étudiant. « C’est à partir de la rencontre au Portugal qu’est née l’idée de faire venir une usine de semi-conducteurs ferroélectriques au Brésil », raconte Longo. En plus de l’état de São Paulo, les états du Pernambuco et de Rio de Janeiro avaient posé leur candidature. Finalement c’est São Carlos qui a été choisi en raison des résultats obtenus par le groupe de Longo et de Varela après plusieurs années de recherche. Symetrix, qui possède des brevets au Japon, en Corée du Sud, en Europe et aux États-Unis, a établi au Brésil un partenariat commercial avec le groupe brésilien Emcalso-Damba, un conglomérat d’entreprises de construction lourde et de projets immobiliers existant depuis plus de 40 ans et intervenant dans plusieurs secteurs. D’après Longo, « le consortium international viabilise la production pour le marché interne et l’exportation ». L’entreprise d’Araújo possède trois secteurs : Symetrix Devices, pour le développement des systèmes et des mémoires ; Symetrix Systems, pour les cartes et les étiquettes intelligentes ; Symetrix Development, pour la recherche, le développement et l’innovation, ainsi que l’agrément des technologies de l’entreprise. Projet allemand Le Brésil importe chaque année près de 100 millions de dollars en puces, mais aucune d’entre elles avec une mémoire ferroélectrique. La participation brésilienne représente environ 2 % du marché mondial, soit l’équivalent de 52 millions de dollars. Les objectifs du consortium sont dans un premier temps de répondre à toute la demande du marché interne. La technologie de l’entreprise Symetrix est en compétition avec d’autres types de mémoire non-volatiles telle que la mémoire Flash, surtout utilisée dans des cartes de mémoires pour appareils photos, clés USB, lecteurs MP3 et téléphones portables. L’investissement initial pour l’installation de l’usine – qui débutera en 2009 pour s’achever en 2011 – est de 250 millions de dollars. Actuellement, les associés sont en train de structurer le plan d’affaires. « Vu que la taille de l’usine est déjà définie, une entreprise allemande a été engagée pour s’occuper du projet », signale Varela. La fabrication des puces à mémoire ferroélectrique demande un environnement très propre et des professionnels capables de déposer les films minces. « Nous avons un personnel qualifié en matière de dépôt chimique et de traitement thermique nécessaires pour la fabrication des puces ». Les films minces peuvent être faits aussi bien par dépôt physique que chimique. La technologie brevetée par Symetrix pour le Japon et qui sera employée dans la production de São Carlos utilise un procédé chimique moins cher car il peut être utilisé sur de grands volumes de matériau. Varela explique que « la solution chimique est déposée goutte après goutte sur des galettes de silicium, le semi-conducteur à la base de la puce de mémoire. La taille du film dépend de la viscosité de la goutte ». Plusieurs types de films aux propriétés isolantes, ferroélectriques et conductrices, responsables de la fonctionnalité du dispositif, sont déposés sur les galettes de silicium, ou wafers. « Pour chaque type d’utilisation est créée une architecture sur mesure du matériau », observe Longo. La communication entre les matériaux composant la puce de mémoire est simultanée ». Et Longo de compléter : « Plus la conductivité du matériau est grande, plus la réponse est rapide ». Le Projet Mémoires ferroélectriques Modalité Centres de Recherche, Innovation et Diffusion (Cepid) Coordonnateur Elson Longo – Centre Multidisciplinaire pour le Développement de Matériaux Céramiques Investissement 1 200 000, 00 réais par an pour tout le CMDMC (FAPESP) Articles scientifiques 1. Costa, C.E.F. et alii. Influence of strontium concentration on the structural, morphological, and electrical properties of lead zirconate titanate thin films. Applied Physics A: Materials Science & Processing. v. 79, n. 3, pp. 593-597, août 2004. 2. Simões, A.Z. et alii. Electromechanical properties of calcium bismuth titanate films: A potential candidate for lead-free thin-film piezoelectrics. Applied Physics Letters (publication on-line). 17 fév. 2006. [post_title] => Mémoires du futur [post_excerpt] => Mémoires du futur [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => memoires-du-futur [to_ping] => [pinged] => [post_modified] => 2013-06-06 12:22:38 [post_modified_gmt] => 2013-06-06 15:22:38 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=120417 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) ) [humanites] => Array ( [0] => stdClass Object ( [ID] => 120427 [post_author] => 370 [post_date] => 2013-06-05 14:26:25 [post_date_gmt] => 2013-06-05 17:26:25 [post_content] => Publié en janvier 2008 [caption id="attachment_120536" align="alignright" width="300"]Embarquement de Jean VI, prince régent du Portugal, pour le Brésil le 27 novembre 1807 Embarquement de Jean VI, prince régent du Portugal, pour le Brésil le 27 novembre 1807[/caption] La phrase de Roger Bastide – « Brésil, terre de contrastes » – est peut-être déjà ancienne, mais elle n’a rien perdu de sa valeur. Du football à l’histoire, rien n’échappe à la règle honteuse du « tout ou rien ». C’est par exemple le cas de la venue de la famille royale portugaise au Brésil en 1808. Pendant des décennies, on a parlé de ce voyage sur le ton de la moquerie, en évoquant l’aventure du « roi en fuite » Jean VI de Portugal, aux côtés de sa femme « moustachue » et de sa cour provinciale. Aujourd’hui, à l’approche du bicentenaire de son arrivée à Bahia et Rio de Janeiro, des célébrations monumentales se préparent et le monarque qui « gardait des cuisses de poulet dans sa poche » est désormais perçu comme un homme d’état habile. Quel est l’aspect réel de ce voyage, et quelles conséquences a-t-il eu sur un pays qui, à l’époque, n’était pas encore une nation ? L’historienne de l’Université de São Paulo (USP) Laura de Mello e Souza étudie depuis 2003 la fuite des Bragance vers le Brésil d’un point de vue comparatiste – dans le cadre du projet thématique Dimensions de l’empire portugais financé par la FAPESP : « Sans discréditer le rôle qu’a eu la venue de la famille royale sur la formation du Brésil comme nation indépendante, peut-être serait-il plus avantageux de voir le phénomène de manière distincte. Il me semble opportun de tenter de dissocier, intentionnellement et momentanément, le phénomène de ce qui en a suivi. Les analyses sur 1808 ont presque toujours été marquées par les réflexions sur la formation du Brésil, donnant lieu à une série de jugements de valeur et de relations très souvent téléologiques. [...] Comme 1808 est profondément associé à l’apparition de la nation, la mémoire de l’événement s’est construite de façon quasi burlesque, les évidences empiriques étant la plupart du temps escamotées par l’idéologie pure ». D’après elle, l’historiographie a figé 1808 dans des perspectives opposées, qui « n’ont pas été dûment étudiées ». Et Laura de Mello e Souza de poursuivre : « Dans le cas de l’originalité unique de l’événement (pour beaucoup, la patrie est née en 1808 et non en 1822), on perdait de vue le processus historique pour ne garder que le fait extraordinaire. On ne considérait que cette expression singulière d’une durée courte – 1808 – au dépit d’une durée longue, comme si elle planait comme une bulle sur les autres expressions de la même conjoncture. Vu qu’elle montrait l’anecdotique, l’inhabituel, elle renvoyait sans le savoir à une tradition ancienne fondée sur le préjugé, caractéristique des pays du nord de l’Europe à l’égard des pays du sud à partir du XVIIIe siècle ». À l’opposé, du côté de la crise générale de l’ancien système colonial (mis en évidence par l’indépendance des colonies américaines lorsque fut rompue pour la première fois la sujétion d’une colonie à sa métropole) aux racines fortement marxistes, on péchait par excès pour les raisons contraires : « En se penchant sur le temps long, on distinguait les lignes générales de phénomènes communs mais en même temps singuliers les logiques des structures assumant le devant de la scène et celles des événements devenant quasiment opaques ». Ainsi, « tout s’estompait entre la figure de l’Angleterre capitaliste dans le contrôle des pays subalternes ou le poids du rouleau compresseur napoléonien en train de remplacer l’idéologie révolutionnaire de la Grande Nation française. Il est possible que cette tension entre temps long et temps court soit insoluble. Néanmoins, sans analyse l’histoire est chronique : avec elle, une certaine marge d’anachronisme est inévitable ». Pour Jurandir Malerba, historien de l’Université d’état de São Paulo (Unesp) et auteur du livre A corte no exílio [La cour en exil] : « Ce débat est permanent dans l’historiographie et il remonte aux temps immédiats de l’indépendance ; il renferme un volet politique indéniable, qui nuance aussi bien les interprétations privilégiant la présence et l’action de Jean VI dans le processus d’émancipation politique brésilienne que celles qui minimisent son importance au point de concevoir que l’indépendance a eu lieu ‘en dépit de’, ‘nonobstant’ les actions du souverain. [...] L’historiographie sur 1808 est construite à partir de ces rectifications qui se produisent de génération en génération, mais le leitmotiv de la reconstruction politique et de la lutte politique se jouent dans le présent ». Malgré tout, il existe encore de l’avis de Laura de Mello e Souza d’anciens préjugés : « il y a un processus de passage entre la fin de la Renaissance et le début des Lumières, dans lequel s’est construite une relation entre les « riches » (Nord) et les « pauvres » (Sud) basée sur l’ambiguïté et la contradiction, où opérait la loupe du préjugé et de la détraction. Les récits sur la venue de la cour ont été contaminés par cette tradition détractrice préexistante et, sans doute sans le savoir, par les libéraux qui ont mené parmi nous le processus d’indépendance en y incorporant des traditions détractrices d’étrangers du Nord. Ces traditions ont fini par atteindre, dans le Brésil nation, et les élites cultivées et les couches les plus populaires ». Cela s’est produit peu de temps après le transfert de la cour : en 1809 par exemple, Andrew Grant dans History of Brazil nommait déjà l’épisode de « fuite de cette cour stupide ». En 1900, João Ribeiro affirmait dans História do Brasil [Histoire du Brésil] : « Si en venant au Brésil Jean VI nous a apporté l’autonomie, encore que sous les formes de l’absolutisme, son esprit étroit ne disposait pas des qualités suffisantes pour créer comme il l’a rapidement déclaré un ‘nouvel empire’. C’est lui qui a démoralisé l’institution monarchique, déjà contraire aux aspirations américaines ». Le temps n’a pas aidé à tracer un portrait précis de l’arrivée de la famille royale. Dans História geral da civilização brasileira [Histoire générale de la civilisation brésilienne] organisée par Sérgio Buarque de Holanda, la présence de la cour apparaît peu ; l’accent est mis sur l’idée récurrente qu’il faut installer le siège de la monarchie en Amérique, obsession de tous les rois et ministres du Portugal, du prieur du Crate à Dom Rodrigo de Souza Coutinho. Chef du Trésor Royal, Coutinho a remis en 1803 au prince régent une évaluation de la situation politique précaire du Portugal, en signalant qu’une guerre entre la France et l’Angleterre « mettrait en danger l’indépendance de la monarchie portugaise ». Il a alors conseillé Jean VI de créer un nouvel empire au Brésil, qui permettrait de donner aux Portugais une base à partir de laquelle l’héritier du trône pourrait reconquérir tout ce qui se perdrait en Europe et « punir l’ennemi cruel ». Mais en 1580 déjà, alors que le roi espagnol Filipe II réclamait la couronne portugaise, la cour avait envisagé de se réfugier au Brésil. Des décennies plus tard, les raisons stratégiques se sont transformées en une vision messianique dans les propos du Père Vieira, pour qui le roi pourrait être le chef d’un empire éternel sur les terres de l’Amérique. Au cours du royaume de Jean V (1706-1750), alors qu’augmentait l’expansion espagnole et commençait la décadence lusitanienne, le courtisan portugais Luiz da Cunha a rédigé un mémorandum secret qui anticipait la prévision de Montesquieu sur l’inversion en cours au sein des empires modernes. Cunha a pratiquement convaincu le souverain de la nécessité de transférer la cour au Brésil afin de garantir son avenir et de préserver sa fierté parmi les nations européennes. « De fait, le transfert de la cour était une idée ancienne. À la fin du XVIIIe siècle, il était explicitement défendu par Souza Coutinho, qui percevait clairement les limitations de la métropole », observe l’historien de l’Université Fédérale de Rio de Janeiro (UFRJ), José Murilo de Carvalho. Pour la brasilianiste Kirsten Schultz, auteur de Tropical Versailles, « l’histoire politique et la culture politique du transfert de la cour commencent bien avant que le prince régent ne quitte le Portugal et arrive sur les côtes brésiliennes. La décision de transférer le centre de la monarchie, prise au milieu d’un chaos et d’un immédiatisme seulement apparents, était déjà enracinée dans une vision du potentiel du Brésil déjà observé au cours du XVIIIe siècle ». Dans le recueil 1822 : dimensões [1822 : dimensions], organisé par Guilherme Motta et publié en 1972, le ton change. L’accent est mis sur la crise de l’Ancien Régime, en particulier dans le chapitre de l’historien Fernando Novais. L’année 1808 commence à être vue autrement. Dans cet interrègne historiographique séculaire où l’événement a été victime de préjugés dévalorisants, de l’apologie acritique et de sa réduction à une anecdote face aux changements structurels et politiques de l’Ancien Régime, il y a, rappelle Laura de Mello e Souza, un épigone important : Dom João no Brasil [Jean VI au Brésil], de Manuel de Oliveira Lima (aujourd’hui réédité par la maison d’édition Topbooks), paru en 1908. « Nous devons y revenir pour repenser les directions prises par la future historiographie de 1808 ; malgré le style ancien, il demeure actuel et instigateur, car Oliveira Lima aborde à la fois le temps long et le temps court, la structure et l’événement, le contexte général et les personnages particuliers ». Pour compliquer un peu plus la donne, il y a dans ce débat historiographique un autre débat, encore plus brûlant, qui déclenche de vives polémiques en dépit des deux cent ans qui nous séparent de l’événement. « Cette idée de faire la fête autour de Jean VI vient des gens de Rio de Janeiro pour promouvoir la ville », affirmait lors d’une interview l’historien de l’état du Pernambuco, Evaldo Cabral de Mello. Pour lui, il existe « une insistance à renforcer le lieu commun selon lequel le roi a été le responsable de l’unité du pays, qui n’est pas allé au-delà d’une fabrication de la couronne sans intention d’en créer un pays indépendant ». Commémorer le bicentenaire de 1808 vaut-il donc la peine ? « Concernant la célébration du calendrier, je partage l’avis de l’historien François Furet, qui disait qu’il faut craindre la passion de la célébration afin d’éviter les inventaires. Autrement dit, des festivités excessives risquent de mettre plusieurs questions au placard », signale l’historienne Mary del Priore. Parmi ces questions se trouve celle sur la manière dont le pays a acquis son indépendance, une polémique qui divise à nouveau l’historiographie en deux camps : d’un côté les défenseurs de la centralisation du Brésil, rendue possible par la permanence des Bragance dans le pays, de l’autre ceux qui l’accusent d’opprimer un mouvement fédéraliste calqué sur le modèle américain et qui a reçu le nom de « séparatisme ». Remontons un peu dans le temps pour analyser le départ ou la fuite de la cour portugaise vers le Brésil. Le catalyseur de ce mouvement fut l’ascension en 1799 de Napoléon Bonaparte au poste de premier consul et le début d’une campagne militaire française aux accents de Révolution Française ; une action qui a semé un vent de panique sur les cours européennes déjà terrorisées. D’après Murilo de Carvalho, « les principales puissances ont été battues, à l’exception des Anglais. Jean VI s’est alors retrouvé en face d’un véritable choix cornélien : soit il se rendait aux Français, courant le risque d’être déchu, de voir Lisbonne bombardé par les Anglais et de leur céder la colonie, soit il s’enfuyait, se soumettant à la Grande Bretagne et s’exposant à la colère des sujets portugais abandonnés ». Selon l’auteur, le départ a signifié pour le Portugal la préservation de la monarchie et le prolongement de la colonie pendant un temps, mais sans les bénéfices de l’exclusivité coloniale rompue par l’ouverture des ports. La permanence aurait pu déboucher sur ce qui s’est passé en Espagne – la destitution et la prison du roi – et, après la chute de Napoléon, une annexion possible à l’Espagne. « Toutefois, on ne sait pas quel est l’argument principal qui a conduit le Conseil de la Couronne à voter pour le départ de la cour », ajoute Murilo de Carvalho. Anecdotes sur le voyage et fuite de la cour mises à part, la venue de la famille royale a été synonyme de changements et de dilemmes pour la nation naissante. Dans Linhagens do pensamento político brasileiro [Lignages de la pensée politique brésilienne] (cf. résumé du livre page 94 de cette revue), le politologue Gildo Marçal Brandão observe que « l’‘accident de la présence de la famille royale’ change totalement le jeu. Le roi n’est pas seulement l’institution politique qui évite le démembrement du pays à l’époque de la rupture avec la métropole, il est aussi l’auteur de l’hégémonie de Rio de Janeiro sur les autres pouvoirs locaux et régionaux. [...] L’indépendance néfaste de l’État par rapport à la société civile (la naissance de l’État avant celle de la société civile, sa prégnance abusive, la fatalité des individus et des groupes sociaux qui vivent de et par l’État) s’établit sur l’histoire interne de la métropole, la transmigration océanique de l’État portugais et la réitération sévère et avare de la culture des origines ». C’est là le pivot de la division entre les unitaristes et les fédéralistes. Pour l’historienne de l’USP Isabel Lustosa, « certains, comme Frei Caneca et Cipriano Barata depuis l’état de Pernambuco, insistaient sur la forme fédérative et sur une plus grande indépendance des provinces par rapport à la capitale. Mais ceux qui voyaient la grandeur du territoire brésilien comme une force et voulaient le maintenir uni à tout prix affirmaient que le modèle fédéraliste avait fonctionné aux USA parce qu’il avait anticipé la formation de l’État. Implanté ici, il finirait par provoquer la désintégration et nous entraîner vers le même destin que celui des colonies espagnoles, secouées par des révolutions ». Cabral de Mello émet la critique suivante : « Pour ceux qui réduisent notre émancipation politique à la construction d’un État centraliste, la tradition de l’historiographie tend à ignorer que si le royaume américain de Jean VI peut être considéré comme la première marque du futur édifice impérial, il n’en a pas moins été sur le point de détruire ses fragiles possibilités, justement de par son incompétence à dépasser la figure de rhétorique du vaste empire, en l’actualisant et en la réalisant. De même que Murilo de Carvalho, Cabral de Mello estime que la construction impériale ne fut rien d’autre qu’une figure de rhétorique employée par la couronne portugaise pour tenter d’effacer la pénible impression créée en Europe après son départ ; elle était présentée comme une « mesure visionnaire destinée à réhabiliter le Portugal et à se revitaliser dans le Nouveau Monde pour revenir dans le Vieux Monde en condition de puissance de premier ordre ». Ce choix cornélien déterminerait si le futur brésilien allait se situer dans le centralisme monarchique qui a maintenu les Bragance au pouvoir jusqu’à la fin du XIXe siècle, ou dans le fédéralisme similaire à celui en vigueur aux États-Unis, comme l’ont préconisé dès 1817 les leaders des mouvements d’indépendance dans les états de Pernambuco et de Bahia. Pour Evaldo Cabral de Mello, une autre indépendance était possible, « non pas celle à visée unitaire, conservatrice et naturellement monarchique, qui nous a fait oublier d’autres modes possibles de développement de la nation ou de la formation de l’État. [...] Ces mouvements ont été regroupés sous l’amalgame trompeur de ‘séparatisme’, tandis que les constructeurs de l’Empire à Rio de Janeiro se sont vus attribuer dans l’histoire le beau rôle d’unitaires et de nationalistes. Murilo de Carvalho souligne : « Comme les forces unitaires – ou la ‘meute unitaire’ selon les termes de Frei Caneca – ont vaincu les forces centrifuges, en particulier celles des états du Pernambuco et du Rio Grande do Sul, on peut se demander si la venue de la cour a aidé à modeler le Brésil de par son poids (et non de par sa détermination) dans la conservation de la monarchie et, surtout, dans le maintien de l’unité. La réponse est affirmative. Monarchie et unité, unité en partie grâce à la monarchie, ont signifié l’héritage de l’une des cultures les plus en retard de l’Europe, favorisé la prévention de ruptures sociales, culturelles et économiques, un excès de centralisation politique et de conservatisme social ». Toujours selon Murilo de Carvalho, ce qui aurait été une colonie transformée en quelques pays peut être perçu en analysant ce qui s’est passé dans la partie espagnole : beaucoup d’instabilité, de guerre civile, de caudillisme, mais aussi plus de mobilisation politique, plus d’autogouvernement, plus d’audace réformiste. « Est-ce qu’il aurait mieux valu ? Cela dépend de la perspective adoptée. Pour ceux qui rêvaient et rêvent encore aujourd’hui (ce n’est pas mon cas) d’un grand empire ou d’un Brésil puissance (pétrolière), le maintien de l’unité fut essentiel. Pour ceux qui se soucient davantage de la prospérité et des conditions de vie de la population, la fragmentation aurait pu être plus avantageuse, surtout pour les provinces les plus riches ». Y a-t-il une unanimité au milieu de cette polémique ? Isabel Lustosa répond : « Je crois que la plupart des historiens pensent que le maintien de l’unité brésilienne a été une bonne chose. Mais tant que le fédéralisme n’a pas été adopté, la discussion sur ses avantages a accompagné l’Empire, les débats de la première Constitution (1823) et marqué la République. L’application pratique du fédéralisme avec la ‘politique des gouverneurs’, du gouvernement Campos Salles, a cependant fini par consolider le colonélisme et augmenter l’inégalité sociale nationale ». [caption id="attachment_120538" align="alignleft" width="308"]Départ de la reine pour le Portugal, le 21 avril 1821 Départ de la reine pour le Portugal, le 21 avril 1821[/caption] Revenons-en aux critiques de Cabral Mello à l’encontre de la période Jean VI au Brésil et ses conséquences. « Toute discussion sur les réformes politiques était toujours court-circuitée dans les cercles de la cour, qui objectaient que la Révolution Française avait aussi commencé par des réformes. La période de Jean VI a été caractérisée par un conservatisme extrême, qui réduisait l’action du pouvoir public à des questions administratives devant être résolues selon les pratiques de l’ancien État ». D’après lui, c’est à partir de l’indépendance que s’est imposée une notion territoriale selon laquelle le Brésil était destiné à devenir un pays. Les cariocas concevaient le Brésil comme un grand pays, avec un potentiel correspondant de recouvrement d’impôts, sous un régime centralisateur. D’autre part, l’idéalisation du royaume de Jean VI est née et s’est développée à Rio, faisant du siège de la cour le grand bénéficiaire de l’immigration des Bragance ; les capitaineries étaient quant à elles frappées d’une surtaxe pour financer l’embellissement de la capitale, dans le but d’en faire un lieu acceptable pour les courtisans et les fonctionnaires du royaume. Pour Malerba, « cet entrelacement des intérêts des élites natives et des élites ayant migré a marqué la mesure du processus d’indépendance à partir du rapprochement, pendant les années brésiliennes de Jean VI, entre les élites du Centre-Sud et la couronne. [...] Ici je suis d’accord avec Cabral de Mello : ce projet centralisateur vainqueur qui a coopté le prince du Brésil après le retour du roi au Portugal prônait l’imposition des intérêts aussi bien régionaux (voire provinciaux) que ceux desdits ‘séparatistes’ des états du Rio Grande do Sul ou du Pernambuco, ce qui me conduit à me demander quels seraient les avantages pour le Brésil si un autre de ces projets s’était imposé sur les autres ». De l’avis de Malerba, ce qui compte c’est qu’est née avec Jean VI l’embryon de l’élite qui allait construire l’État impérial et la nation brésilienne au cours du XIXe siècle. « Et cette élite a été celle du Centre-Sud ». Il observe également que la configuration patriarcale de l’État portugais de l’Ancien Régime a accompagné, lors de la venue au Brésil, celle du caractère sacré de la royauté : « un des principes de cette forme de gouvernement, la monarchie absolue, reposait sur la libéralité du souverain, sur sa capacité à concéder des grâces. L’utilisation excessive de ce principe a été la marque distinctive de la monarchie portugaise à Rio ». Appartenant à un temps qui s’effondrait sur son lieu d’origine, en arrivant à Rio de Janeiro la monarchie s’est transformée en quelque chose de nouveau, ou du moins différent. Toutefois, le poids de ce temps moribond était fortement ancré dans les esprits des hommes de l’élite et, surtout, dans celui de l’héritier, Pierre 1er. Sans expérience de rupture radicale, le Brésil est devenu un État-nation enfant de deux temps. Cette incertitude a marqué la période impériale et ses traits n’ont pas encore disparu à l’heure actuelle ». « Ce que nous ne pouvons savoir », note Malerba, « c’est si, dans le cas où ce projet centralisateur, monarchique et conservateur n’avait pas été historiquement le projet vainqueur, quel type de fédération aurait surgi des décombres du monde colonial. La trajectoire politique est patente : les interprétations qui regrettent l’avortement des projets fédéralistes tendent à attribuer les plaies sociales du Brésil à notre révolution conservatrice, à la voie prussienne suivie par les élites brésiliennes. Mais nous n’avons pas, dans l’histoire, le dispositif de la contre-épreuve. [...] Une expérience fédéraliste aurait-elle engendré un pays meilleur ? Notre expérience républicaine ne nous permet pas de répondre ». Laura de Mello e Souza préfère opter pour une « troisième voie » : « Ce que l’on essayait de fait en 1808 était la configuration d’un nouvel Empire : pas seulement portugais pour les Américains, qui le voulaient luso-brésilien, et c’est peut-être de là qu’est née la tension qui exploserait bientôt, dans la mesure où les habitants de la métropole (car elle continuait à se voir comme telle) continuaient à donner de l’importance à la relation. En somme, ce n’était plus au même Empire que les Portugais et les Luso-brésiliens pensaient : les premiers le voulaient portugais, les seconds luso-brésilien ». Pour l’historien français Charles Mozaré, « un événement ne devient mémorable que s’il est exceptionnel, s’il suscite en plus de son aspect éphémère une réalité durable qui finit par s’inscrire dans les lieux de la mémoire collective, en devenant une sorte d’expérience exemplaire ». Dans ce sens, poursuit Malerba, « la célébration et la construction de la mémoire sont des fondements pour la constitution d’un corps politique. Comment cette entité, que nous nommons nation brésilienne, a-t-elle commencé ? La récupération d’événements comme la permanence de la cour au Brésil entre 1808 et 1821 a une fonction de cohésion sociale, elle contribue à maintenir les sociétés organiques ». Malerba conseille de faire bon usage de ce « se rappeler ensemble », en profitant de la date pour lancer un débat sur notre trajectoire (« à partir de cet événement ou en raison de cet événement »), sur notre réalité actuelle et ses impasses. « Pour ce faire, il faut penser aux connexions historiques les plus générales et, en même temps, montrer comment et pourquoi elles ne sont pas aléatoires. Et cesser de voir la venue de la famille royale comme une anecdote grotesque ou une occurrence aléatoire », observe Laura de Mello e Souza. Et Isabela Lustosa de compléter : « Nous célébrons les dates historiques comme les anniversaires de nos parents, des personnes de qui nous descendons et que nous n’avons pas choisies, mais qui nous ont donné la vie et avec lesquelles nous sommes irrémédiablement unis ». [post_title] => Une coupure dans l’histoire du Brésil [post_excerpt] => Une coupure dans l’histoire du Brésil [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => une-coupure-dans-lhistoire-du-bresil [to_ping] => [pinged] => [post_modified] => 2013-06-05 17:32:05 [post_modified_gmt] => 2013-06-05 20:32:05 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=120427 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [1] => stdClass Object ( [ID] => 120436 [post_author] => 204 [post_date] => 2013-06-05 14:46:51 [post_date_gmt] => 2013-06-05 17:46:51 [post_content] => Publié en avril 2008 [caption id="attachment_120541" align="alignright" width="226"]Jorge Amado: un lien efficace entre la littérature et le public Jorge Amado: un lien efficace entre la littérature et le public[/caption] Le lancement en mars des six premiers volumes de la réédition complète de l’œuvre de l’écrivain bahianais Jorge Amado (1912-2001) est le projet éditorial le plus ambitieux et le plus important de la maison d’édition Companhia das Letras, qui prévoit d’éditer 32 titres d’ici 2012. Elle prétend être l’emblème d’une relecture critique et donner au père de Gabriela, Tieta et Dona Flor, parmi tant d’autres personnages, la valeur littéraire qu’il mérite. Après 33 années, Amado quitte la maison d’édition Record, de Rio de Janeiro, pour émigrer à São Paulo. Sa nouvelle maison d’édition a remporté en août dernier la bataille pour l’œuvre, qu’elle menait avec six autres concurrentes. Attirer l’intelligentsia brésilienne nécessitera un investissement parallèle pour la promotion qui se composera de conférences et de séminaires avec des auteurs et des artistes renommés, de spectacles, de présentations de films et même d’histoires en bande dessinée de certains romans – dont Jubiabá, préparé actuellement par le dessinateur Spacca en collaboration avec Lilia Schwarcz. L. Schwarcz est par ailleurs la coordinatrice éditoriale du projet aux côtés du diplomate et écrivain Alberto da Costa e Silva, considéré au Brésil comme la plus grande autorité vivante sur l’Afrique et l’un des intellectuels brésiliens les plus importants. La stratégie est ambitieuse. Depuis mi-mars, les grandes librairies exposent en nombre, et des livrets comprenant des extraits des premiers livres sont gracieusement distribués aux clients. À cela s’ajoute une campagne publicitaire dans les journaux, les magazines et sur Internet, avec des photos et des témoignages de ceux qui admirent les livres. La maison d’édition a fait appel au soutien, parfois enthousiaste, de personnes célèbres tel que Rubem Fonseca : « Ses splendides histoires retracent de manière émouvante notre pays et notre peuple, avec une universalité capable d’enchanter les lecteurs du monde entier ». Dans un style qui lui est propre, José Saramago écrit : « Chez Jorge Amado, l’art de se faire aimer était spontané, jamais prémédité ». L’éditeur Thyago Nogueira observe avec enthousiasme : « Nous voulons faire en sorte que les personnes lisent ses livres, et pour encourager au débat chaque livre possédera une postface spécifique ». Et d’ajouter : « Nous allons former des professeurs dans tout le Brésil, préparer un matériel de soutien scolaire, faire des spectacles, etc. Nous allons chercher de nouveaux lecteurs parmi les jeunes et les moins jeunes. D’où les activités comme un concours pour les professeurs et les élèves ». En réalité, les défis à relever sont au nombre de deux. En plus du respect critique, il s’agit de faire à nouveau – même si les ventes de ses livres sont toujours conséquentes – un bon chiffre d’affaires auprès des lecteurs les plus jeunes, comme cela s’est produit avec Nelson Rodrigues dans les années 1990. Alberto da Costa e Silva sait que vendre l’écrivain aux formateurs d’opinion va exiger une certaine persistance. D’après lui, l’aspect politique de ses livres n’a été important qu’à une époque donnée, très spécifique, qui ne justifie pas l’étiquette d’auteur engagé : « Sa création survit aux vicissitudes de la politique ». Il préfère rappeler qu’il existe une très grande acceptation dans des secteurs et des époques donnés : « Son œuvre est estimée et admirée par des compagnons de sa génération et par les auteurs les plus importants des deux générations suivantes ». Le diplomate admet qu’il existe une certaine résistance de l’université et d’une partie de la critique dans le cas des auteurs au succès populaire : « Son œuvre est riche en nuances, en couleurs et elle sert même d’exemple pour une interprétation donnée du Brésil ». Pour lui, les universitaires ont en réalité du mal à se pencher sur l’œuvre d’Amado : « Certains secteurs intellectuels sont fascinés par le formalisme et Amado est antiformaliste par nature. De même qu’il est plus difficile d’étudier la poésie de Manuel Bandeira et de Cecília Meireles que de João Cabral de Neto, dont les caractéristiques formelles sont beaucoup plus claires. Autrement dit, on a plus de chances de faire un travail brillant et sans grand effort sur un auteur original et de très grande qualité comme Guimarães Rosa ». Jorge Amado appartient à ce deuxième groupe : « Dans son cas, il faut posséder de profondes connaissances en sociologie et en anthropologie. Dans ses livres apparaît un Brésil féerique, dur, une rencontre de mélanges à partir de leurs non-rencontres. Ceux qui rejettent voire méprisent ses livres n’ont pas cette sensibilité spéciale qu’il faut avoir par rapport à la vie en soi, et pas exclusivement vis-à-vis de la littérature ». Le critique et écrivain José Castello est d’accord sur le fait qu’Amado a payé cher son militantisme : « Même mort, il continue encore à payer. C’est un cas similaire à celui de Saramago, autre communiste déclaré. Les deux sont victimes de la force des préjugés extra-littéraires qui entachent et diminuent leurs littératures. C’est très injuste. Bien sûr on peut ne pas aimer Amado ou Saramago, mais pas parce qu’ils sont communistes. Ou parce qu’ils sont chrétiens, islamistes, athées, conservateurs ou même fascistes. Céline était fasciste, mais cela ne l’a pas empêché d’être un génie ». D’après Castello, ce qui se passe dans le milieu littéraire est, aujourd’hui encore, fortement imprégné de questions et des relents idéologiques qui se cachent sous le voile luxueux des « positions théoriques » : « Les personnes s’enferment dans des groupes clos, elles ne considèrent que leurs pairs, ne recherchent que l’égal et la répétition ». Mais dans le milieu universitaire il y a aussi des fervents défenseurs de l’écrivain bahianais. Claudius Armbruster, professeur allemand de philologie romaniste et directeur de l’Institut Portugais-Brésilien de l’Université de Cologne, a effectué ses études post-doctorales sur le rôle du métissage dans l’œuvre de Jorge Amado – travail soutenu à l’Université Fédérale de Bahia (UFBA). Il estime que les préjugés à l’encontre d’Amado à cause de son militantisme communisme sont exagérés : « Malgré son engagement politique, il a en réalité toujours été un écrivain à succès, aussi bien sur le plan de la critique que financier ». Le chercheur met l’accent sur le fait que l’œuvre de l’écrivain exprime sa valeur littéraire à travers le mélange de culture populaire, de voix orales, de contextes politiques et de « lisibilité ». Dans sa thèse de doctorat Jeux de miroirs : l’illustration et la prose de fiction de Graciliano Ramos, José Lins do Rego et Jorge Amado préparée à l’Institut des Arts de l’Université de Campinas (Unicamp), Mara Rosângela Ferraro Nita centre son travail sur l’illustration littéraire. Elle avait déjà lu quelques ouvrages de Jorge Amado avant de débuter sa recherche et connaissait le mépris démontré par une grande partie de la critique envers la production de l’écrivain bahianais. « Cette opinion défavorable ne m’a peut-être pas affectée parce que je suis une lectrice commune, sans formation dans le domaine des études littéraires. J’avoue aussi que mon intérêt initial était tourné vers les magnifiques éditions illustrées de l’auteur surtout publiées par les maisons d’édition Ariel, Record et Martins ». Ce nonobstant, au cours de son travail elle s’est peu à peu attachée à la prose de fiction de Jorge Amado. Dans l’ouvrage Jorge Amado : romance em tempo de utopia [Jorge Amado : roman en temps d’utopie], fruit de sa thèse publiée par la maison d’édition en 1996, Eduardo de Assis Duarte réfléchit au contexte de production des ouvrages d’Amado. Il y analyse en particulier l’impact de la pensée de gauche sur l’écriture des premiers romans, de Le Pays du carnaval (1931) à Les souterrains de la liberté (1954). Il souligne également les nuances existantes quant au respect (ou non) des directives de ladite « esthétique de parti ». Dans les années 1930, la radicalisation idéologique imposait aux artistes et intellectuels de se positionner politiquement. Cet engagement est présent aussi bien dans la critique sociale qu’en termes d’idéalisation du peuple et du militantisme, surtout de ses leaders, comme cela s’est produit avec Prestes dans Le chevalier de l’espérance : vie de Luis Carlos Prestes. D’après l’auteur, Amado ne fait pas de « réalisme socialisme » au sens strict. Dans Les chemins de la faim par exemple, il critique fortement l’autosuffisance et les erreurs des dirigeants à mener ledit soulèvement communiste de 1935. [caption id="attachment_120543" align="alignleft" width="300"]Jorge et sa femme Zélia Gattai, également écrivain Jorge et sa femme Zélia Gattai, également écrivain[/caption] Que ce soit comme militant politique au début de sa carrière ou comme romancier qui chantait le peuple métissé, ses fêtes et ses saveurs, Jorge Amado a toujours, de l’avis d’Ilana Seltzer Goldstein, abordé des questions liées à l’identité nationale : « C’est cette motivation qui m’a conduite à mener une étude sur lui dans le cadre des sciences sociales, en mettant l’accent sur l’image du Brésil qu’il a aidée à construire ». À sa grande surprise, elle a rencontré très peu de thèses et de mémoires écrites par des sociologues, des anthropologues et des historiens brésiliens sur l’écrivain – pas plus de deux ou trois. « Cela a attisé encore plus mon intérêt », ajoute-t-elle. Seltzer Goldstein est actuellement consultante de la maison d’édition Companhia das Letras pour la collection d’Amado. Conformément aux données que lui a envoyé la maison d’édition, elle a recensé, pour la seule période 1975-1995 au Brésil, un total de 20 050 500 exemplaires vendus. En plus des romans, Amado a écrit en qualité de journaliste et collaborateur de revues plus d’une centaine d’articles sur des sujets les plus variés ; dans le champ intellectuel, il a exercé différentes fonctions, dont celles de critique, préfacier et membre de l’Académie des Lettres. Sans oublier les adaptations de ses ouvrages pour la télévision, ainsi que les hommages et les conférences à l’étranger, au cours desquels le romancier bahianais était une sorte d’ambassadeur symbolique du Brésil. Tout cela a fait de Jorge Amado un grand formateur d’opinions, un homme politique dont les idées ont eu de grandes répercussions sur plusieurs couches sociales de la société, dans plusieurs régions du Brésil et dans le monde. Selon le Docteur ès Histoire Ana Paula Palamartchuk, auteur de Os novos bárbaros : escritores e comunismo no Brasil (1928-1948) [Les nouveaux barbares : écrivains et communisme au Brésil (1928-1948)], les préjugés envers Jorge Amado n’existent pas. Toutefois, elle admet que la mémoire construite autour de sa trajectoire a du mal à faire avec sa phase communiste : soit elle lui attribue une valeur excessive, soit elle sous-estime le rôle du militantisme dans son expérience littéraire. C’est d’ailleurs, dit-elle, ce que pensait Amado lui-même : O mundo da paz (1952) [Le monde de la paix], récit d’un voyage en URSS, a été publié « comme une contribution à la lutte pour la paix. Je l’ai écrit comme un hommage d’un écrivain brésilien au camarade Staline pour son soixante-dixième anniversaire, un sage dirigeant des peuples du monde dans la lutte pour le bonheur de l’homme sur terre ». Des années plus tard, il écrit dans son livre de mémoires Navigation de cabotage : « J’ai retiré Le monde de la paix de la circulation, je l’ai rayé de l’ensemble de mes œuvres, je cherche à l’oublier... ». Néanmoins, le militantisme politique suit de près sa création littéraire, en particulier entre 1933 – avec la publication de Cacao – et 1954, date de parution de la trilogie Les souterrains de la liberté. Par la suite, quand il s’éloigne du Parti Communiste, ce militantisme politique va apparaître dans son œuvre comme une absence, pour essayer de donner un autre sens à sa trajectoire précédente. Cette absence est compensée par le peuple et par le populaire qui tentent d’articuler l’ensemble de son œuvre. [post_title] => Pourquoi aimer Jorge Amado ? [post_excerpt] => Pourquoi aimer Jorge Amado ? [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => pourquoi-aimer-jorge-amado [to_ping] => [pinged] => [post_modified] => 2013-06-05 17:38:53 [post_modified_gmt] => 2013-06-05 20:38:53 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=120436 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [2] => stdClass Object ( [ID] => 120444 [post_author] => 50 [post_date] => 2013-06-05 14:55:08 [post_date_gmt] => 2013-06-05 17:55:08 [post_content] => Publié en octobre 2008 [caption id="attachment_120546" align="alignright" width="300"]Des indiens dansent dans le Parc National du Xingu Des indiens dansent dans le Parc National du Xingu[/caption] L’ironie est des plus cruelles : la déforestation incontrôlée et criminelle de la forêt amazonienne a permis de faire l’une des plus importantes découvertes archéologiques brésiliennes de tous les temps. À l’aide d’images satellites et de recherches sur le terrain, des scientifiques brésiliens et finlandais sont en train de découvrir et de cartographier des géoglyphes, de gigantesques dessins géométriques de plus de 350 m de longueur et effectués par les premiers groupes organisés d’hommes qui peuplaient la région il y a près de 13 000 ans. D’après le Pr Denise Pahl Schaan, vice-coordinatrice du programme de master et doctorat en sciences sociales, coordinatrice du cours de spécialisation en archéologie de l’Université Fédérale de l’état de l’Acre (Ufac) et présidente de la Société d’Archéologie Brésilienne, « sans la déforestation, on ignorerait peut-être encore leur existence ». Denise Pahl dirige également avec la géographe de l’Ufac Miriam Bueno le groupe de recherche Géoglyphes de l’Amazonie, financé par le Conseil National de Développement Scientifique et Technologique (CNPq). Il s’agit d’une recherche qui devrait changer une grande partie des acquis sur l’occupation de la région amazonienne. De prime abord, elle dément ce que l’on pensait jusqu’à présent, à savoir que le côté ouest de l’Amazonie était une vaste zone dénuée de culture humaine complexe. D’énigmatiques travaux de remblaiement laissés par des sociétés organisées montrent qu’elles y vivaient là et pratiquaient la culture. De tels indices peuvent mener à des découvertes importantes à l’aube du XXIe siècle, alors que l’on ne croyait plus à de grandes nouveautés dans le domaine. Pour Alceu Ranzi, membre de l’Institut Historique et Géographique de l’état de l’Acre et intégrant l’équipe d’Ondemar Dias de l’Université Fédérale de l’état de Rio de Janeiro (UFRJ), qui a découvert les premiers vestiges de ces éléments en 1977, « l’occurrence des géoglyphes dans l’état de l’Acre renverse le paradigme selon lequel les sociétés complexes de l’Amazonie se seraient développées seulement dans les zones de plaine cultivée des grands fleuves ». Ranzi explique que les géoglyphes se situent principalement dans des zones interfluviales – des terres élevées qui divisent les eaux des fleuves Acre, Iquiri et Abunã. Autrement dit, une zone non-inondable (terra firme). La découverte de l’équipe de Dias n’a été communiquée officiellement à la communauté scientifique qu’en 1988 dans un article publié par l’anthropologue Eliana de Carvalho, mais elle n’a eu aucune répercussion. Toutefois, les travaux dans la région ont commencé à avoir un retentissement international au cours des neuf dernières années. Actuellement, une équipe d’anthropologues dirigée par Denise Pahl Schaan procède à un grand relevé régional des géoglyphes. « Lorsqu’on observe leur maîtrise de la géométrie, des cercles, des octogones et des angles parfaits », observe Ranzi, « on perçoit la complexité liée à la construction de ces gigantesques géoglyphes ». Le projet Géoglyphes de l’Amazonie est né en 2007. Un an auparavant, un projet pour l’étude de cinq géoglyphes considérés très importants a été créé en association avec des chercheurs finlandais. Denise Pahl Schaan raconte que les informations des voyageurs des siècles derniers parlaient de grandes sociétés vivant le long du fleuve Amazone et de ses principaux affluents. De la même manière, les premières recherches archéologiques ont privilégié les zones inondables. Puisque les populations indigènes ayant survécu à l’époque coloniale se sont réfugiées dans les zones interfluviales, c’est là qu’elles ont été rencontrées par les ethnographes ayant décrit leur mode de vie. Dans les années 1950, certains chercheurs ont suggéré que le mode de vie indigène (petits hameaux, changement de hameau en moyenne tous les cinq ans) décrit par les ethnographes reflétait le modèle de vie typique sur la zone non-inondable à toutes les époques. D’après Pahl Schaan, « les géoglyphes montrent que cette notion était erronée, l’élaboration des gigantesques dessins indique une organisation de la force de travail et une planification, l’existence d’une hiérarchie sociale et probablement des conflits armés, vu que les tranchées peuvent avoir été creusées pour la défense ». La chercheuse souligne que leur géométrie est parfaite et qu’elle dénote un souci du symbolique : « Le stade de développement culturel de ces peuples qui existaient serait celui des chefferies, des sociétés régionales socialement stratifiées ». [caption id="attachment_120549" align="alignleft" width="299"]Vision actuelle du hameau: l´Anthropologie revoit le comcept de peuples primitifs Vision actuelle du hameau: l´Anthropologie revoit le comcept de peuples primitifs[/caption] Cependant, il n’existe pas d’informations sur la date et la raison de la disparition de ces peuples. « Nous faisons actuellement le relevé des sites dans tout l’état de l’Acre et ses environs ; nous réalisons des fouilles dans certains d’entre eux et recueillons des échantillons de sol et de matière végétale pour les dater et voir quelle était la couverture végétale à l’époque de leur construction. Il sera ainsi possible de savoir si la forêt a été détruite pour la construction des géoglyphes ou si la zone était une savane, un milieu ouvert». Comparés aux Indiens qui vivent aujourd’hui en Amazonie, ces peuples anciens étaient plus nombreux et possédaient une organisation sociale plus complexe. Selon Denise Pahl Schaan, les géoglyphes représentent une population importante vivant sur une zone non-inondable. Les ouvrages en terre signalent une mobilisation de la force de travail et une planification, ce qui n’existe que dans les sociétés complexes : « La répartition très étendue des géoglyphes sur une superficie de plus de 250 kilomètres de long indique une standardisation de pratiques culturelles monumentales sur de vastes régions, ce qui apparaît uniquement dans les sociétés complexes. [...] Il faut rappeler que les transformations du paysage réalisées à travers les géoglyphes n’existent également que dans les sociétés complexes ». Parmi les chercheurs qui ont fait partie de l’équipe d’Ondemar Dias se trouvait Franklin Levy, aujourd’hui docteur ès Anthropologie. Par courrier électronique, ce chercheur finlandais nous rappelle qu’après la découverte de la première structure en terre de l’état de l’Acre, en 1977, il a dirigé les recherches sur le front oriental, de Cruzeiro do Sul jusqu’à la frontière avec le Pérou : « Là-bas, on n’a pas encore localisé de structures en terre ». À cette époque, le côté ouest de l’Amazonie était encore méconnu. « Des données éparses et des découvertes fortuites ne constituaient pas une connaissance archéologique organisée, permettant que ce vide soit rempli par l’imagination de chacun et occasionnellement perçu comme une extension de la connaissance ethnologique moderne ». Pour l’anthropologue, l’observation de cultures modernes calquée sur l’idée reçue d’une évolution linéaire, selon laquelle chaque peuple franchit des niveaux évolutifs faciles à observer – c’est-à-dire des progrès matériels –, a faussé l’évaluation et l’interprétation d’autres penseurs et théoriciens. « Mais cette confusion disparaît peu à peu et cède la place à une nouvelle vision, qui parle de cultures complexes dans le sens organisationnel, de commandements et de chefferies. Comprendre comment ils ont saisi internement ce phénomène sans tenter de l’expliquer à travers la taille de leurs tâches relève du travail de l’archéologue ». Toujours selon Levy, les évidences archéologiques permettent d’affirmer qu’une société est restée – y compris avec des allers et venues – sur le lieu de ses géoglyphes pendant plus de 2 500 ans. Elle a ainsi eu le temps de développer une culture si complexe qu’il ne sera jamais possible de la saisir totalement : « Ces peuples ont dominé le milieu grâce aux nombreuses ressources techniques dont ils disposaient et ont vaincu les vicissitudes du climat, en maintenant la production quelle que soit la saison. Ils ont également habité dans les savanes et dans les zones interfluviales les plus élevées. Comme les eaux les empêchaient de s’installer et de planter, ils creusaient de grandes fosses autour du lieu choisi en rabaissant la nappe phréatique remontante et en retirant les racines, et ils ont réussi à garder le sol des maisons plus sec au moment de la saison des pluies. Lorsque les pluies cessaient et qu’il fallait brûler le fourrage des champs, les fosses devenaient des abris sûrs et préservaient le milieu domestique. Ainsi protégés, ils contrôlaient également l’avancée de la forêt avec le feu. Et Levy d’ajouter : « Ils diversifiaient l’économie par les ressources des zones inondables qui, à découvert, fournissaient à la fin des pluies ce qui manquait sur les terres élevées ». Ils n’y passaient que de courts séjours, comme le prouvent les restes archéologiques. « La maîtrise parfaite des conditions climatiques et environnementales, exploitant de manière productive jusqu’aux formes d’interaction entre les différents peuples qui composaient cette culture, dénote un degré d’évolution incompréhensible pour l’observateur actuel. [...] L’intentionnalité et l’inventivité de ces technologies de survie ont montré que le processus et les desseins n’étaient pas le fruit du hasard ». Le finlandais Martti Pärssinen, directeur scientifique du projet Man and Nature in Western Amazonian financé par l’Université d’Helsinki, estime qu’Alceu Ranzi est l’âme de l’étude des géoglyphes, car c’est lui qui a encouragé tous les chercheurs à former un groupe de recherche. Les principaux objectifs du projet qu’il coordonne sont, par ordre d’importance : (1) reconstruire l’histoire, la culture, l’économie, l’ethnie et la répartition démographique des peuples qui habitaient la région située à la frontière entre le Brésil et la Bolivie, avant et après l’arrivée des Européens ; (2) fournir aux autorités des deux pays des informations qui permettront d’aider à protéger les sites archéologiques et à contrôler le tourisme dans la région, de manière durable. Pärssinen a été invité en 2002 par Ranzi à connaître les géoglyphes de l’état de l’Acre, alors qu’il était en train d’étudier une fortification inca près de Riberalta en Bolivie, à 200 kilomètres de Rio Branco : « Jusqu’à la moitié du XXe siècle, les peuples de l’Amazonie pré-européens étaient généralement interprétés selon une perspective ethnographique contemporaine. Les sociétés amazoniennes étaient surtout vues comme des groupes primitifs vivant en petits groupes hostiles et sans organisation sociale complexe ». Il cite les propos de Julian H. Steward, formulés en 1948 : « La culture de la forêt tropicale a été adaptée dans une région extrêmement chaude, humide et très arborisée. La chasse, la pêche et les brûlis sont à l’origine de la faible densité de la population et de petites communautés ». Aujourd’hui, les découvertes montrent exactement le contraire. [post_title] => Amazonie perdue et retrouvée [post_excerpt] => Amazonie perdue et retrouvée [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => amazonie-perdue-et-retrouvee [to_ping] => [pinged] => [post_modified] => 2013-06-05 17:46:24 [post_modified_gmt] => 2013-06-05 20:46:24 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=120444 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) ) ) [categories] => Array ( [covid-19] => WP_Term Object ( [term_id] => 3561 [name] => Covid-19 [slug] => covid-19 [term_group] => 0 [term_taxonomy_id] => 3563 [taxonomy] => category [description] => [parent] => 75 [count] => 49 [filter] => raw [term_order] => 0 [cat_ID] => 3561 [category_count] => 49 [category_description] => [cat_name] => Covid-19 [category_nicename] => covid-19 [category_parent] => 75 ) [butantan-120-anos] => WP_Term Object ( [term_id] => 3686 [name] => Butantan – 120 Anos [slug] => butantan-120-anos [term_group] => 0 [term_taxonomy_id] => 3688 [taxonomy] => category [description] => [parent] => 75 [count] => 4 [filter] => raw [term_order] => 0 [cat_ID] => 3686 [category_count] => 4 [category_description] => [cat_name] => Butantan – 120 Anos [category_nicename] => butantan-120-anos [category_parent] => 75 ) [pesquisa-fapesp-20-anos] => WP_Term Object ( [term_id] => 2699 [name] => Pesquisa Fapesp 20 anos [slug] => pesquisa-fapesp-20-anos [term_group] => 0 [term_taxonomy_id] => 2701 [taxonomy] => category [description] => [parent] => 75 [count] => 12 [filter] => raw [term_order] => 0 [cat_ID] => 2699 [category_count] => 12 [category_description] => [cat_name] => Pesquisa Fapesp 20 anos [category_nicename] => pesquisa-fapesp-20-anos [category_parent] => 75 ) [ufrj-100-anos] => WP_Term Object ( [term_id] => 3501 [name] => UFRJ - 100 anos [slug] => ufrj-100-anos [term_group] => 0 [term_taxonomy_id] => 3503 [taxonomy] => category [description] => [parent] => 75 [count] => 10 [filter] => raw [term_order] => 0 [cat_ID] => 3501 [category_count] => 10 [category_description] => [cat_name] => UFRJ - 100 anos [category_nicename] => ufrj-100-anos [category_parent] => 75 ) [politique-st] => WP_Term Object ( [term_id] => 1191 [name] => Politique S&T [slug] => politique-st [term_group] => 0 [term_taxonomy_id] => 1194 [taxonomy] => category [description] => [parent] => 1173 [count] => 45 [filter] => raw [term_order] => 0 [cat_ID] => 1191 [category_count] => 45 [category_description] => [cat_name] => Politique S&T [category_nicename] => politique-st [category_parent] => 1173 ) [sciences] => WP_Term Object ( [term_id] => 1180 [name] => Sciences [slug] => sciences [term_group] => 0 [term_taxonomy_id] => 1183 [taxonomy] => category [description] => [parent] => 1173 [count] => 82 [filter] => raw [term_order] => 0 [cat_ID] => 1180 [category_count] => 82 [category_description] => [cat_name] => Sciences [category_nicename] => sciences [category_parent] => 1173 ) [technologie] => WP_Term Object ( [term_id] => 1194 [name] => Technologie [slug] => technologie [term_group] => 0 [term_taxonomy_id] => 1197 [taxonomy] => category [description] => [parent] => 1173 [count] => 1042 [filter] => raw [term_order] => 0 [cat_ID] => 1194 [category_count] => 1042 [category_description] => [cat_name] => Technologie [category_nicename] => technologie [category_parent] => 1173 ) [humanites] => WP_Term Object ( [term_id] => 1188 [name] => Humanités [slug] => humanites [term_group] => 0 [term_taxonomy_id] => 1191 [taxonomy] => category [description] => [parent] => 1173 [count] => 45 [filter] => raw [term_order] => 0 [cat_ID] => 1188 [category_count] => 45 [category_description] => [cat_name] => Humanités [category_nicename] => humanites [category_parent] => 1173 ) ) ) -->

Politique S&T

Sciences

Technologie

Humanités