Publié en Août 2011 [caption id="attachment_117650" align="alignright" width="257"]Aython et Carlos Joly: de la flore des algues marinesau Programme Biota-FAPESP Aython et Carlos Joly: de la flore des algues marinesau Programme Biota-FAPESP[/caption] Des centaines de chercheurs paulistes, issus de disciplines liées aux études de la biodiversité, se sont réunis à São Carlos au début du mois de juillet pour discuter des avancées de leurs travaux. Dans le même temps, un comité d’évaluation composé de scientifiques étrangers analysait l’ensemble des résultats présentés et suggérait des voies à suivre pour les prochaines années. Les deux évènements ont marqué la septième évaluation du programme de Recherche en Caractérisation, Préservation, Récupération et Utilisation Durable de la Biodiversité de l’État de São Paulo, plus connu sous le nom de Programme Biota-FAPESP, lancé en 1999 avec la participation de 1 200 spécialistes, dans le but d’identifier la biodiversité pauliste. Ce programme a permis de réaliser plus d’une centaine de projets de recherche et a favorisé les avancées de la connaissance dans l’identification de 1 766 espèces (1 109 microorganismes, 564 invertébrés et 93 vertébrés), outre la publication de plus de 1 145 articles scientifiques, 20 livres, 2 atlas et diverses cartes qui ont facilité l’orientation de politiques publiques. L’État de São Paulo possède actuellement six décrets gouvernementaux et 13 résolutions qui citent les orientations du programme. Dans le domaine de la formation en ressources humaines, ce programme a formé 190 masters, 120 docteurs ès sciences et 86 post doctorants. La FAPESP a investi 82 millions de réaux dans le programme juste pour les 10 premières années. Le Biota-FAPESP est le premier programme scientifique brésilien à avoir bénéficié d’un investissement régulier pendant plus de 10 ans, observe son coordonnateur, le botaniste Carlos Alfredo Joly, professeur à l’Université Publique de Campinas (Unicamp). Après 10 ans de fonctionnement, les organisateurs du programme ont proposé à la FAPESP un nouveau plan scientifique pour la décennie suivante. «Cette réunion d’évaluation est très spéciale car c’est la première de ce genre depuis que la FAPESP a renouvelé son soutien au programme jusqu’en 2020», déclare Carlos Alfredo Joly. «La perspective sur le long terme est fondamentale pour la recherche scientifique», affirme-t-il. Le programme Biota-FAPESP est le principal exemple d’investissement élevé de la Fondation en matière de recherche, dans le domaine des sciences naturelles et de l’écologie et cela de nombreuses années avant que le terme biodiversité ne soit inventé. Dès les premières années, la FAPESP a financé des études sur les algues marines, tout d’abord sur le littoral de l’État de São Paulo (1962-1963) et ensuite sur le littoral nord, nord-est et est du Brésil (1964-1965). Ces études ont été menées par le Département de Botanique de l’ancienne Faculté de Philosophie, de Sciences et de Lettres de l’USP et qui fera plus tard partie de l’Institut de Biosciences (IB). Les études réalisées sur le littoral de l’État de São Paulo ont permis de mener différents travaux de recherches publiés dans des revues scientifiques, de former des biologistes marins spécialisés dans les algues et d’agrandir l’herbier d’algues du département de Botanique. Le relevé de la flore d’algues du reste du littoral brésilien fait quant à lui partie d’un travail de coopération internationale soutenu par la Section Océanographique de l’Unesco. L’ensemble des résultats de ces projets a permis d’élaborer la première version de la Flore Algologique Marine du Brésil. Un personnage clé de cette ligne de recherche est Aylthon Brandão Joly (1924-1975), professeur à l’Université de São Paulo, qui a été l’initiateur des études sur les algues au Brésil dans les années 50. En 1957, il a publié un livre intitulé Contribution à la connaissance de la flore algologique marine de la baie de Santos et des alentours. Il s’agit du premier relevé floristique planifié d’algues dans une région délimitée du Brésil. «Aylthon Brandão Joly a travaillé seul à l’université jusqu’en 1960. Il a ensuite créé une véritable école au sein du Département de Botanique de l’USP, orientant directement ou indirectement une bonne partie de la première génération d’algologues brésiliens et également d’autres pays d’Amérique Latine», écrit Carlos Bicudo, chercheur à l’Institut de Botanique de São Paulo, dans l’article intitulé «L’étude des algues dans l’État de São Paulo», publié en 1998. Aylthon Joly a laissé beaucoup d’héritiers, l’un d’eux au sens propre et figuré du terme. Son fils Carlos Alfredo Joly, coordonnateur du programme Biota-FAPESP, a suivi les traces de son père. «Il y a une génération de chercheurs en algues marines qui sont les petits-fils académiques de mon père», déclare Carlos Alfredo Joly. «La professeur Mariana Cabral de Oliveira, de l’USP et membre de la coordination du Programme Biota-FAPESP, est un bon exemple de cette nouvelle génération car outre le fait d’avoir utilisé des techniques d’ADN barcoding pour sa recherche, elle fait preuve du même esprit novateur qui a toujours caractérisé les algologues brésiliens». Barrages La FAPESP a pris l’initiative d’organiser des projets spéciaux dans les années 70 et a décidé de consacrer l’un d’entre eux à l’écologie en commandant un projet au professeur José Galizia Tundisi, qui était déjà à l’époque une référence en algologie. Le résultat de cette commande fut le projet Typologie des Barrages de l’État de São Paulo, qui a mobilisé 70 chercheurs du Laboratoire de Limnologie de l’Université Fédérale de São Carlos (UFSCar), de l’Institut de Biosciences de l’USP et de L’Institut de la Pêche du Secrétariat à l’Agriculture de l’État de São Paulo. «À cette époque, un chercheur espagnol avait réalisé une étude sur le profil de 104 barrages espagnols, considérant la biologie des algues, la contamination et la pollution. Je lui ai proposé un projet similaire», déclare José Galizia Tundisi. Le projet a largement porté ses fruits sur le plan scientifique car il a élargi la connaissance sur les mécanismes de fonctionnement des barrages, expliquant les différences entre lacs et réservoirs. Ce projet a enrichi les collections d’organismes aquatiques conservés dans des instituts de recherche et a favorisé la publication de 150 travaux au Brésil et à l’étranger, ainsi que de quatre livres (trois d’entre eux à l’étranger), formant 10 PhD et 15 masters. Il a permis, par exemple, de développer une méthodologie de comparaison des écosystèmes aquatiques inédite au Brésil. Il a également permis de produire un ensemble d’informations sur la répartition géographique des organismes aquatiques et sur les caractéristiques des réservoirs, qui ont eu un impact dans l’utilisation des bassins hydrographiques et qui servent encore de référence pour de nouvelles études. Finalement, il a établi les paramètres de gestion des barrages. «Nous sommes parvenus à déterminer que le temps idéal de rétention d’eau dans les réservoirs doit être inférieur à 10 jours afin de garantir la qualité de l’eau et la santé des écosystèmes. Quand l’eau d’un réservoir met du temps à être changée, la rétention de polluants, de nitrogène et de phosphore a un impact sur la préservation des espèces. Cette information a été fondamentale pour planifier de nouvelles centrales hydroélectriques», affirme José Galizia Tundisi. Après l’approbation du projet, José Galizia Tundisi est allé voir le directeur scientifique de la FAPESP, William Saad Hossne, pour lui faire une nouvelle demande. «J’ai sollicité 15 bourses d’initiation scientifique pour former de nouveaux chercheurs au sein de ce projet. Ce fut un succès. Parmi les 15 jeunes boursiers, 13 sont actuellement professeurs titulaires», dit-il. Description Si l’étude des barrages a permis de former des leaderships et de semer les graines de la compétence dans ce domaine de la connaissance, le projet Flore Fanérogamique de l’État de São Paulo a été une étape dans l’apprentissage d’un travail multi-institutionnel qui allait ensuite acquérir les contours d’un réseau élargi d’institutions et de chercheurs au sein du programme Biota-FAPESP. Le projet, initié en 1993, a réuni des spécialistes issus de trois universités publiques (Unicamp, USP et Université Publique Pauliste (Unesp), de trois instituts de recherche (Botanique, Forestier, et Agronomique) et d’un organisme municipal (Département des Parcs et Zones Vertes de la mairie de São Paulo). Actuellement, l’une des principales contributions en matière de connaissance de la diversité de la flore brésilienne est la production de six volumes décrivant des espèces de plantes fanérogames, celles qui produisent des fleurs. L’intention est d’en publier 10 autres et de mettre à jour les premières œuvres sur l’Internet. L’objectif du projet était de combler une lacune en matière de préservation environnementale au Brésil et celle-ci était discutée par les membres de la Société Botanique Brésilienne (SBB). La flore brésilienne, reconnue comme possédant le plus grand nombre d’espèces, était également l’une des moins connues et l’une des plus menacées au monde. «En 1992, le Congrès National de Botanique, réalisé à Aracaju dans l’État de Sergipe, a consolidé et approuvé les principes d’une élaboration de la flore brésilienne qui prévoyait, outre les études sur la végétation, le développement d’actions au profit de la formation en ressources humaines ainsi que la création de programmes d’expéditions botaniques dans les différents écosystèmes du pays», se rappelle Maria das Graças Lapa Wanderley, chercheuse à l’Institut de Botanique et qui coordonne actuellement le projet. L’année suivante, avec le premier appel à projet thématique de la FAPESP, des botanistes réunis dans un congrès à São Luís do Maranhão ont décidé de présenter une proposition transformant le projet sur la flore de l’État de São Paulo en projet pilote. La coordination du projet a été attribuée au professeur Hermógenes de Freitas Leitão Filho (1944-1996), du Département de Botanique de l’Unicamp, l’un des rares spécialistes brésiliens de la famille des Compositae qui possède environ 10 000 espèces, comme la marguerite, la camomille et différentes autres plantes médicinales. Les deux premières années ont correspondu à une phase de planification avec le recensement des collections des herbiers, permettant la création de la banque de donnée du projet. La deuxième phase a concerné les expéditions scientifiques, la plupart d’entre elles se déroulant entre 1996 et 1997. Ces expéditions ont permis de collecter environ 20 000 plantes qui ont été ensuite distribuées aux herbiers de l’État de São Paulo. Après le décès inattendu d’Hermógenes Leitão, en février 1996, quand il dirigeait une activité sur le terrain, la coordination du projet a été reprise par Maria das Graças Lapa Wanderley, George Shepherd, de l’Unicamp, et Ana Maria Giulietti, de l’USP. La troisième phase a commencé avec la diffusion des résultats et la prévision de publier 16 volumes. La FAPESP a soutenu le projet jusqu’en 2005. Les six volumes publiés jusqu’à présent décrivent 132 familles, incluant 655 genres et 2 767 espèces, ce qui équivaut à 37% des 7 058 espèces référencées sur le territoire pauliste. «Tous les chercheurs qui veulent étudier une plante fanérogame consultent notre base de données. La portée du projet s’étend à d’autres secteurs de la botanique», déclare Maria das Graças Wanderley. Lacunes [caption id="attachment_117661" align="alignright" width="228"]Hermógenes Leitão: Flore Fanérogamique Hermógenes Leitão: Flore Fanérogamique[/caption] L’exemple du projet Flore Fanérogamique a inspiré le programme Biota-FAPESP. En 1995, le Secrétariat à l’Environnement de l’État de São Paulo a essayé en vain d’impliquer des chercheurs dans des travaux qui allaient plus loin que l’élaboration d’une liste des espèces menacées sur le territoire pauliste. «Il y avait beaucoup de lacunes en matière de connaissance mais les chercheurs avaient des réticences à s’engager, craignant que d’éventuels changements politiques du Secrétariat compromettent la continuité des travaux», dit Carlos Joly, qui, à l’époque, était conseiller du secrétaire à l’Environnement, Fabio Feldmann. À cette époque, Carlos Joly était également membre de la Coordination des Sciences Biologiques de la FAPESP et travaillait avec le professeur Naércio Menezes. «L’idée d’un programme de recherche en biodiversité a mûri à la FAPESP. J’avais beaucoup discuté avec le professeur Hermógenes à l’Unicamp et je connaissais bien la Flore Fanérogamique. Mais à l’inverse de ce dernier qui était un projet thématique qui se focalisait uniquement sur un groupe taxonomique, nous voulions englober toute la biodiversité de l’État, ce qui évidemment ne s’insérait pas dans une seule thématique», se rappelle Carlos Joly. L’idée de créer un programme comprenant un ensemble de projets thématiques articulés a été présentée par le directeur scientifique de la FAPESP, José Fernando Perez, lors d’un workshop à Serra Negra, en 1997. Le groupe de coordination de l’époque (voir détails sur www.biota.org.br/info/historico) a décidé d’utiliser l’internet pour créer des outils d’intégration et de partage de données. L’Institut Virtuel de la Biodiversité était alors créé. C’est l’autre appellation utilisée pour désigner le programme Biota-FAPESP. Les données accumulées par le programme Biota-FAPESP orientent aujourd’hui les critères adoptés pour la création de nouvelles unités de préservation et l’autorisation de déboisement de végétation native. Elles définissent également les règles de zonage agroécologique pour la culture de la canne à sucre sur le territoire pauliste. Des décrets gouvernementaux et des résolutions du Secrétariat à l’Environnement citent dans leurs considérants les cartes de zones prioritaires destinées à la préservation et à la restauration de la biodiversité pauliste produites par les chercheurs du Programme Biota. Si les 10 premières années du Programme Biota-FAPESP ont été marquées par une avancée dans la caractérisation de la biodiversité en utilisant la base de donnée comme outil de perfectionnement des politiques publiques, le programme cherche aujourd’hui à en élargir sa portée, mettant l’accent, par exemple, sur l’élargissement du BIOprospecTA, sous-programme qui recherche des composés ou des molécules d’intérêt économique, sur la production de matériel éducatif pour le réseau d’enseignement primaire et secondaire et sur des études liées aux services écosystémiques et au fonctionnement d’écosystèmes terrestres. «Le professeur Arthur Chapman, du Service Australien d’Information sur la Biodiversité et membre du comité international d’évaluation, a fait l’éloge du programme en disant qu’il s’efforce d’implanter les suggestions faites auparavant par le comité», affirme Carlos Joly. «En 2008, les évaluateurs avaient critiqué le nombre limité de projets en biologie marine et en microorganismes. Il y a maintenant 10 nouveaux projets de biologie marine et, dans le cas des microorganismes où il n’y avait qu’un seul projet thématique, plus de 40 projets ont été proposés lors du dernier appel à projet. Il y a des groupes qui ont la formation nécessaire et la coordination a eu la sensibilité d’être à l’écoute des attentes de la communauté scientifique pauliste. C’est pour cela que toutes ces choses sont en train de se dérouler si rapidement», déclare Carlos Joly. [post_title] => Parcours écologique [post_excerpt] => Parcours écologique [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => parcours-ecologique [to_ping] => [pinged] => [post_modified] => 2013-05-13 18:25:33 [post_modified_gmt] => 2013-05-13 21:25:33 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=117633 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [1] => stdClass Object ( [ID] => 117665 [post_author] => 17 [post_date] => 2013-05-13 18:49:44 [post_date_gmt] => 2013-05-13 21:49:44 [post_content] => Publié en Février 2011 [caption id="attachment_117681" align="alignright" width="294"]L´anneau de lumière du LNLS: utilisations multiples L´anneau de lumière du LNLS: utilisations multiples[/caption] Ceux qui travaillaient déjà avec la lumière synchrotron pour étudier des protéines, des os de fossiles, des roches, des médicaments ou des matériaux pour ordinateurs, ont revu leur plan d'activités après avoir pris connaissance des travaux d'autres groupes de recherche. Ceux qui en savaient encore peu sur ce domaine ont découvert que ce type de lumière pouvait avoir des applications universitaires et industrielles. Du 17 au 25 janvier 2011, 18 spécialistes de six pays (parmi lesquels un prix Nobel de chimie et un autre de physique) se sont réunis avec des chercheurs et 76 étudiants de troisième cycle de 24 pays (dont 13 Brésiliens) à l'occasion de l'École São Paulo de Science Avancée (ESPCA) du Laboratoire National de Lumière Synchrotron  (LNLS) de Campinas. L’ESPCA est une modalité lancée en 2009 par la FAPESP pour financer l'organisation de cours de courte durée dans le domaine de la recherche avancée au sein des différents champs de la connaissance de l'État de São Paulo. Antonio José Roque da Silva, directeur du LNLS, observe : « Nous voulons augmenter la visibilité du laboratoire pour des chercheurs potentiels de l'étranger. Alors que nous débutons en ce moment le projet d'un nouvel anneau de lumière, nous devons penser à l'avenir et voir ce que les autres font ». Nommé Sirius, le nouvel anneau doit avoir 460 m de circonférence – l'actuel en compte 93 m – et une énergie beaucoup plus grande. Seule source de lumière synchrotron en Amérique latine et l’une des deux existantes dans l'hémisphère sud, à côté de l'Australie, le LNLS travaille avec des chercheurs universitaires et des entreprises brésiliennes et étrangères. Parfois, le contraste avec d'autres pays est grand. « Alors que beaucoup d'entreprises brésiliennes continuent encore d’essayer d'utiliser la ligne de lumière synchrotron pour améliorer la qualité de leurs produits, l'entreprise japonaise Toyota utilise sa propre ligne », indique Silva. Ancienne utilisatrice de l’European Synchrotron Radiation Facility (ESRF) de Grenoble, la compagnie a décidé de construire sa propre ligne, qui fonctionne au Japon depuis 2009. Gemma Guillera est une chercheuse qui a travaillé en collaboration avec Toyota. Elle raconte que cette ligne de lumière doit appuyer le développement de nouveaux catalyseurs pour la réduction de polluants, de batteries et de cellules à combustibles : « la spectroscopie d'absorption de rayon X [une des formes d'analyse au moyen de la lumière synchrotron utilisées par l'équipe de Toyota] fournit des informations sur les longueurs des liaisons atomiques, le type et le nombre d'atomes ». Les chercheurs et les étudiants ont pu voir comment émergent les recherches, et combien l'apparition de résultats substantiels peut être longue. L'Israélienne Ada Yonath dit avoir travaillé pendant presque 30 ans dans son laboratoire de l'Institut Weizmann, en Israël, et sur des sources de lumière synchrotron des États-Unis, d'Allemagne et du Brésil avant de découvrir la structure et la fonction des composants cellulaires ribosomes, essentiels pour la production de protéines. Pour aller de l'avant, Ada Yonath et d'autres spécialistes devaient obtenir des cristaux de ces composants cellulaires. Si cela a été jugé impossible durant des décennies, ils y sont finalement parvenus par l'intermédiaire du refroidissement des cellules. La maîtrise de la technique et l'avancée conséquente de la connaissance sur les ribosomes ont fait gagner aux trois chercheurs le prix Nobel de chimie de 2009 : aux côtés d’Ada Yonath ont participé Venkatraman Ramakrishnan, du Laboratoire anglais de Biologie Moléculaire de Cambridge, et Thomas Steitz, de l'Université américaine Yale. À la fin de sa présentation, Yonath a remercié l'Institut Weizmann pour lui « avoir permis de poursuivre [ses] rêves ». Nouvelles mémoires Le physicien français Albert Fert, chercheur du Centre National de Recherches Scientifiques (CNRS) et l'un des lauréats du prix Nobel de physique 2007, a présenté les fondements et les applications de la spintronique, un nouveau type d'électronique qui n'explore pas la charge électrique mais le spin (sens de la rotation) des électrons. Il s'agit de la base de mémoires informatiques ultra puissantes que des entreprises des États-Unis, de France et du Japon doivent lancer dans les prochains mois. Fert et le physicien allemand Grünberg ont reçu le prix Nobel de physique de 2007 pour l'identification simultanée, en 1988, de la magnétorésistance géante – un effet mécanique quantique observé dans des matériaux composés de matériaux magnétiques et non magnétiques qui résultent en une variation intense de la résistance électrique avec le champ magnétique. Cet effet a permis d'augmenter la mémoire d'ordinateurs et de téléphones portables ; et à présent elle va augmenter encore plus grâce à une nouvelle génération de dispositifs sur la base de la spintronique. Ceux qui ont partagé le déjeuner de Fert ont constaté qu'il n'évoque pas seulement avec plaisir les ordinateurs du futur, mais aussi ses propres vacances. Âgé de 73 ans, Fert pratique le windsurf, généralement en France et dans les Caraïbes. Il est déjà allé deux fois à Botafogo (Rio de Janeiro) non pas pour parler de physique, mais pour surfer. [post_title] => La carte de la lumière [post_excerpt] => La carte de la lumière [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => la-carte-de-la-lumiere [to_ping] => [pinged] => [post_modified] => 2013-06-27 18:58:25 [post_modified_gmt] => 2013-06-27 21:58:25 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=117665 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [2] => stdClass Object ( [ID] => 117691 [post_author] => 11 [post_date] => 2013-05-13 19:01:51 [post_date_gmt] => 2013-05-13 22:01:51 [post_content] => Publié en mars 2011 La proverbiale barrière de la langue, responsable de la faible répercussion de la production scientifique écrite dans une autre langue que l’anglais, ne porte pas seulement préjudice aux chercheurs de pays émergents comme le Brésil. Une étude dirigée par le physicien Anthony van Raan, directeur du Centre pour les Études de Science et Technologie de l’Université de Leiden, en Hollande, a montré que le problème touche aussi des puissances scientifiques européennes comme la France et l’Allemagne,  seulement devancées par quatre rivaux ( États-Unis, Chine, Royaume-Uni et Japon) dans le classement des nations qui publient le plus d'articles scientifiques. Malgré cela, l'impact de la production scientifique des Français et des Allemands est plus modeste quand elle est publiée dans leur langue maternelle. Spécialiste en scientométrie, la discipline qui s'attache à produire des informations pour stimuler le dépassement des défis de la science, Anthony van Raan est un des responsables du Classement Leiden (Ranking Leiden), une réunion de données établies par l'université hollandaise pour analyser la production scientifique de pays et d'institutions de recherche et d'enseignement supérieur. Dans sa plus récente édition, l'Université de São Paulo (USP) occupait la 15e place sur la liste des universités présentant le plus grand volume de production scientifique. L'étude sur la barrière de la langue s'est penchée sur une liste des 500 principales universités du monde, classées conformément à l’impact de leurs articles scientifiques dans la base de données Web of Science (WoS), de l'entreprise Thomson Reuters. Le facteur d'impact est mesuré par la quantité de citations d'un article dans d'autres travaux scientifiques. Le chercheur hollandais avait observé que le classement moyen de plusieurs universités françaises et allemandes était en décalage avec le prestige universitaire dont elles bénéficient. Pour procéder à un exercice de comparaison, il a produit une deuxième liste qui n'a pris en compte que la production scientifique publiée dans des revues en anglais et laissé de côté les articles écrits en langue maternelle. Il a alors constaté que la performance des universités allemandes et françaises était uniquement supérieure dans le classement avec les articles en anglais, car l'impact de ces travaux était plus grand que celui des articles diffusés en langue maternelle. L'université de Nantes, par exemple, apparaît en 106e position sur le classement des articles en anglais – et au 201e rang sur la liste qui tient également compte des articles écrits dans d'autres langues. Les universités allemandes de Heidelberg et LMU de Munich apparaissent respectivement à la 109e et à la 114e place dans le classement des articles uniquement en anglais, par contre elles chutent à la 150e et à la 166e position lorsque sont comptés tous les articles. Van Raan affirme : « Nous avons rencontré un effet dramatique et sousestimé dans les mesures d'impact. Les articles non publiés en anglais affaiblissent l'impact de pays comme l'Allemagne, l'Australie et la France. Cela est surtout observable au niveau de champs appliqués comme la médecine clinique et l'ingénierie, ainsi que des sciences sociales et des humanités. Comme la médecine représente une partie considérable de la science d'un pays, cet effet influence la position de l'université ». Outil La préoccupation de Raan de Van se réfère à l'utilisation d'indicateurs bibliométriques liés à des facteurs d'impact. Puisque les citations pèsent d'un grand poids dans des classements d’universités comme celui de la Times Higher Education et celui de l’Université chinoise Shangai Jiao Ting, le chercheur suggère d'analyser ces listes avec précaution et propose une alternative polémique : ne considérer, pour effet de comparaison, que la production scientifique en anglais des institutions et ignorer les articles dans d'autres langues. Pour lui, « calculer les indicateurs basés seulement sur des publications en anglais constitue la seule procédure correcte ». Affirmer que la maîtrise de l'anglais est un outil indispensable pour les chercheurs de tous les champs de la connaissance n'est pas nouveau. Cela était déjà vrai dans les années 1930, quand des chercheurs allemands publièrent en langue allemande une étude qui reliait la consommation de cigarettes à l'augmentation du cancer du poumon. À cause de la barrière de la langue, ces données sont restées pratiquement inconnues jusqu'aux années 1960, lorsque des Britanniques et des Nord-américains arrivèrent à la même conclusion. Actuellement, lutter contre la suprématie de l'anglais dans le domaine de la science est contre-productif, estime Sonia Vasconcelos, chercheuse de l'Université Fédérale de Rio de Janeiro (UFRJ) et auteur d'une thèse de doctorat sur la barrière de la langue soutenue en 2008 : « Les pays qui ont pour langue principale l'anglais sont plus avantagés, cependant il existe une mobilisation internationale de la part d'institutions de recherche et d'éditeurs scientifiques de plusieurs pays non anglophones qui tentent de réduire cet avantage. Dans le cas du Brésil, il faut entraîner de plus en plus nos chercheurs, en particulier dans les domaines des sciences et des technologies, à bien écrire en anglais et à développer une certaine indépendance pour pouvoir communiquer avec leurs pairs dans des contextes internationaux. […] Aujourd'hui, en Allemagne, il y a des cours de troisième cycle donnés en anglais, ce qui aide les étudiants à rompre cette barrière. Cela a aussi lieu en France, qui a toujours cultivé – et continue de le faire, mais en adoptant une attitude stratégique par rapport à l'anglais – sa langue dans le milieu universitaire. Le Brésil, par contre, ne possède pas de stratégie articulée pour affronter ce défi ». La proposition de Van Raan d'ignorer la production scientifique en langue maternelle pour perfectionner les comparaisons internationales pourrait provoquer un autre type de données biaisées, causé par l'absence de la contribution dans d'importants champs de la connaissance. Abel Packer, de la coordination de la bibliothèque électronique scientifique SciELO Brasil pense que la production dans la langue locale est une partie indissociable de la connaissance générée par les pays et ne peut pas être mise de côté ». Packer rappelle qu'il y a une tradition dans le pays de publier en portugais dans des disciplines telles que les sciences de la santé et les sciences agraires, par exemple, car cela est important pour transmettre la connaissance aux professionnels de ces domaines. Il ajoute : « La question ne concerne pas seulement les scientifiques, qui connaissent généralement l'anglais, mais d'autres usagers de l'information scientifique qui n'ont pas la même maîtrise de la langue. […] Le multilinguisme est une partie de la communication scientifique qui a ses racines dans le fait que la science fait partie de la culture. La science n'est pas faite dans une tour d'ivoire séparée du reste de la société, elle est reconnue comme une source de connaissances pour le développement économique et technologique. Si la communauté scientifique nationale ne fait pas d'efforts pour créer des sémantiques dans sa langue maternelle, le pays et sa culture ne seront pas capables d'absorber des idées et une connaissance qui, par essence, servent à leur société ». De l’avis de Luiz Henrique Lopes dos Santos, coordonnateur adjoint des Sciences Humaines et Sociales, Architecture, Économie et Administration de la FAPESP et professeur du Département de Philosophie de la Faculté de Philosophie, Lettres et Sciences Humaines de l’USP, la question requiert une solution de compromis et ne se réduit pas à la question de l’impact : « C'est aussi une question culturelle. La langue est un élément essentiel de la culture d'un pays et elle se constitue et s'enrichit dans l'interaction entre ses utilisations les plus ordinaires et les plus sophistiquées - comme en littérature, en science, en philosophie. Aucun pays ne peut se permettre de renoncer entièrement à sa langue en tant que véhicule de la production de la connaissance ». Packer propose d'ajouter à ce débat le fait que la production écrite en portugais augmente dans l’ensemble des revues indexées. Jusqu'en 2007, le taux d'articles publiés en portugais dans la base Web of Science était de 8,5 %. Désormais, il est de 22 % : « La croissance est due à l'augmentation du nombre de revues indexées. De 34 en 2007 elles sont passées à 133 aujourd'hui. Ainsi, le Brésil s'est hissé à la 13e place dans le classement de la production scientifique. Si nous ne tenons pas compte des revues en portugais, nous redescendons à la 17e place ». Donnée marquante Il faut également considérer qu'écrire en anglais n'est pas une condition suffisante pour garantir des citations et du prestige. Une étude publiée par Rogério Meneghini, coordonnateur scientifique de la bibliothèque SciELO Brasil, a montré que les mêmes articles écrits en anglais mais publiés dans des revues brésiliennes produisent en moyenne moins de citations. Rogério Meneghini a invité neuf scientifiques brésiliens habitués à diffuser leurs travaux dans des revues internationales à publier un article original dans l’édition de mai 2008 des Annales de l’Académie Brésilienne de Sciences. L’objectif était d’évaluer jusqu’à quel point ces auteurs seraient capables de transférer leur prestige vers la revue brésilienne, qui est publiée en anglais. Deux ans après la publication, il a été constaté que le nombre de citations de ces articles a dépassé celui des autres articles de la revue : une moyenne de 1,67 citations, contre 0,76 pour les autres. D'autre part, les 62 articles publiés par les mêmes auteurs dans des revues internationales en 2008 ont tous été cités en moyenne 4,13 fois. D'après Rogério Meneghini, la différence peut être attribuée au fait que les revues brésiliennes aient moins de visibilité internationale, même si les auteurs ont aussi tendance à envoyer leurs meilleurs articles à l'étranger. Mais l'une des données marquantes fut de constater que les neuf auteurs se sont abstenus de citer des articles de revues brésiliennes. Seul 1,52 % de leurs citations faites en 2008 se référaient à des travaux publiés sur le plan national. Rogério Meneghini pense que citer des revues nationales n’est pas synonyme de prestige : « Il semble que les auteurs aient choisi de laisser de côté des citations dans des revues brésiliennes pour ne pas passer l'impression que l'article est défaillant ». Une telle contingence n'empêche pas le consensus selon lequel il est fondamental de stimuler la production en anglais. « Quand un chercheur s'efforce de citer des travaux de son pays, il est frustrant de voir que la référence ne peut pas être consultée à l'étranger parce que le travail n'est disponible qu'en portugais », souligne Sonia Vasconcelos. « Cela exigerait des investissements lourds, mais je ne vois pas d'autre solution pour augmenter la visibilité de l'ensemble de la science brésilienne », affirme Packer. [post_title] => Code sacré [post_excerpt] => Code sacré [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => code-sacre [to_ping] => [pinged] => [post_modified] => 2013-06-27 19:07:11 [post_modified_gmt] => 2013-06-27 22:07:11 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=117691 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) ) [sciences] => Array ( [0] => stdClass Object ( [ID] => 117794 [post_author] => 13 [post_date] => 2013-05-14 15:23:36 [post_date_gmt] => 2013-05-14 18:23:36 [post_content] => Publié en Avril 2011 L’Homo sapiens ne se serait pas différencié en termes de races ou de types physiques distincts avant de s’établir sur tous les continents (y compris aux Amériques, le dernier grand bloc de terre), à l’exception de la glaciale Antarctique conquise par l’espèce. Le premier groupe de chasseurs-cueilleurs, arrivé d’Asie il y a plus de 15 000 ans par un chemin occupé aujourd’hui par le détroit de Béring, présenterait une structure anatomique très similaire à celle de la première population d’humains modernes émigrée d’Afrique entre 70 000 et 55 000 ans. Après avoir laissé le berceau de l’humanité, l’homme a pénétré en Asie ; de là, il est d’abord parti à la conquête de deux autres points importants du globe, l’Europe et l’Australie, avant de s’attaquer aux Amériques. Walter Neves, bioanthropologue de l’Université de São Paulo (USP), observe : « Jusqu’à environ 10 000 ans en arrière, la morphologie crânienne de tous les Homo sapiens présents sur tous les continents était conforme au type africain. […] Le processus de raciation n’avait pas encore commencé ». L’apparition de types physiques, comme les caucasiens ou les mongoloïdes (asiatiques aux yeux bridés et à la face plate) serait un phénomène très récent, apparu seulement après la propagation de l’homme sur pratiquement toute la Terre. Walter Neves défend cette hypothèse polémique dans un article publié en mars 2011 dans American Journal of Physical Anthropology. Avec deux autres anthropologues physiciens – le Brésilien Mark Hubbe, de l’Institut de Recherche Archéologique et du Musée de l’Université Catholique du Nord, au Chili, et la Grecque Katerina Harvati, de l’Université de Tübingen, en Allemagne –, ils ont comparé 24 caractéristiques anatomiques de crânes d’êtres humains ayant vécu entre 10 000 et 40 000 ans auparavant en Amérique du Sud, Europe de l’Est et Asie avec celles d’individus de l’époque actuelle issus de ces trois régions, en plus de l’Afrique Subsaharienne, l’Océanie et la Polynésie. Au total, 48 squelettes anciens (32 d’Amérique du Sud, 2 d’Asie et 14 d’Europe) ont été confrontés à 2 000 actuels. Hubbe commente qu’« indépendamment de la situation géographique, les membres des populations anciennes ressemblent plus à leurs contemporains du passé qu’aux humains d’aujourd’hui ». En d’autres mots, les traits physiques de l’homme qui a abandonné l’Afrique et occupé les Amériques 40 000 ans plus tard étaient pratiquement les mêmes. Sous cet éclairage, la conquête du monde fut un phénomène si rapide – l’Homo sapiens aurait emprunté des routes côtières, plus facilement accessibles – que l’homme n’a pas eu le temps de développer dans la foulée des adaptations physiques aux nouveaux milieux. Les résultats de l'étude étayent le modèle de développement de notre continent défendu par Walter Neves depuis plus de deux décennies et dont les travaux sont en grande partie financés par la FAPESP. D'après cette hypothèse, les Amériques ont été colonisées par deux vagues migratoires de peuples distincts qui ont croisé le détroit de Béring à des moments différents. La première aurait été composée d'humains qui, il y a près de 15 000 ans, exhibaient encore cette morphologie « panafricaine » – pour reprendre un terme utilisé par le chercheur de l’USP. Les membres de ce premier groupe de chasseurs-cueilleurs devaient ressembler à Luzia, le célèbre crâne féminin de 11 000 ans retrouvé dans la région minière de Lagoa Santa. Ils possédaient un nez et des orbites oculaires larges, une face projetée vers l'avant et la tête étroite et allongée. Bien qu'il soit impossible de déterminer avec certitude la couleur de leur peau, ils étaient probablement noirs. Tous leurs descendants ont mystérieusement disparu à un moment de la Préhistoire dans des circonstances que l'on ignore, et ils n'ont pas laissé de représentants parmi les tribus aujourd'hui présentes sur le continent. Toujours d'après les idées de Walter Neves, les humains aux traits africains ont été majoritairement remplacés par des individus qui ont fait partie du deuxième mouvement migratoire de l'Asie vers les Amériques. Le nouveau groupe serait entré dans le Nouveau Monde plus récemment, il y a 9000 à 10 000 ans, et ne comprendrait que des individus aux caractéristiques physiques desdits peuples mongoloïdes, comme les actuels orientaux et les tribus indigènes rencontrées jusqu'à aujourd'hui sur notre continent. Cette apparence plus asiatique est peut-être le fruit d'une adaptation au climat extrêmement froid de la Sibérie et éventuellement de l’Arctique. Les êtres humains de ce groupe ne peuvent pas avoir participé au premier mouvement migratoire vers les Amériques dans la mesure où ce type physique n'existait pas encore sur la Terre. C'est du moins ce qu'affirment Neves, Hubbe et Harvati. Cette théorie sur le peuplement des Amériques est loin d'être partagée par tous. Des analyses de l'ADN extrait de populations éteintes et vivantes d’Indiens du continent, en particulier des séquences contenues dans les génomes de la mitochondrie (de lignage maternel) et du chromosome Y (hérité du père), racontent une histoire différente. Elles privilégient l'hypothèse selon laquelle il n'y aurait eu qu'un seul mouvement de migration d'individus de l'Asie vers le Nouveau Monde, et que cette traversée aurait eu lieu quelques milliers d'années avant celle suggérée par les découvertes archéologiques. Pour le généticien Sandro Bonatto de l’Université Catholique Pontificale du Rio Grande do Sul (PUC-RS), « pratiquement toute la diversité biologique des types humains actuels était déjà présente dans l'unique groupe migratoire qui a pénétré dans les Amériques. […] Seuls les Esquimaux, une population qui représente le cas le plus extrême et le plus tardif de ladite morphologie mongoloïde, n'existaient pas encore et n’ont pas participé à ce flux migratoire ». En collaboration avec des collègues brésiliens et argentins, Bonatto a publié en octobre 2008 un article scientifique dans l’American Journal of Physical Anthropology – la même revue où est paru le travail de Walter Neves. L'étude a analysé 10 000 informations génétiques et l'anatomie de 576 crânes de populations éteintes et actuelles rencontrées du nord au sud des Amériques. D'après ses auteurs, un groupe déjà physiquement très hétérogène de chasseurs-cueilleurs est parti de Sibérie il y a environ 18 000 ans pour s'installer en Alaska. De ce premier groupe faisaient partie des personnes possédant des caractéristiques de type asiatique ainsi que des traits plus africains. Le modèle se différencie aussi des idées de Neves et Hubbe dans la mesure où il affirme qu'avant d'entrer dans le Nouveau Monde ce groupe de colonisateurs a été contraint de s'arrêter pendant une longue période à la Béringie, ancien pont terrestre qui reliait l'Asie aux Amériques. Aujourd'hui engloutie par la mer, la Béringie a cédé la place au détroit de Béring. L’arrêt sur cette terre ferme entre les deux continents se serait produit entre 26 000 et 18 000 ans auparavant, une période où la présence de grands glaciers bloquait l'entrée des Amériques. Lorsque la route vers le Nouveau Monde s'est ouverte, la migration s'est effectuée. Cependant, cet arrêt forcé à la Béringie aurait produit des mutations spécifiques au niveau de l'ADN de la population de migrants bloqués à la frontière entre les deux blocs de terre. Ces modifications génétiques ne sont pas présentes chez les peuples d'Asie, mais elles ont été transmises aux descendants des premiers Américains. Une étude récente, à laquelle ont participé des Brésiliens, suggère que l'une de ces mutations favorise l'accumulation de cholestérol chez les Indiens du continent. Même s'ils ne sont pas les seuls à traiter de la question du peuplement des Amériques, les deux modèles décrits semblent irréconciliables. Néanmoins, l'anthropologue physicien argentin Rolando González-José, du Centre National Patagonique de Puerto Madryn et qui a déjà coécrit des articles scientifiques avec Neves, Bonatto et d’autres Brésiliens, voit des points forts et des points faibles dans les deux approches : « Je suis d'accord sur le fait que beaucoup de variations présentes sur le crâne de l'homme ont une origine récente, mais il faut aussi dire que les populations anciennes pouvaient être très hétérogènes ». Et d’ajouter : « le modèle de Neves n'est pas totalement incorrect, mais les données génétiques sont difficilement contestables et montrent que tous les Indiens américains descendent d'une seule population ». Il existe d'autres points de vue sur le processus de peuplement des Amériques, dont certains sont encore plus controversés. Pour l'archéologue Niède Guidon, fondatrice et présidente de la Fondation Musée de l'Homme Américain (Fumdham) et administratrice du Parc National Serra da Capivara (dans l’État du Piauí), l'homme était déjà présent dans le nord-est brésilien il y a 100 000 ans. Il est venu d'Afrique en naviguant d'île en île et en profitant de moments où la mer était beaucoup plus basse qu’aujourd'hui : « La navigation est beaucoup plus ancienne que ce que l'on pense. […] Je ne crois pas que l'Homo sapiens ait colonisé les Amériques par le détroit de Béring ». Avec près de 1300 sites préhistoriques regorgeant de jolies peintures rupestres, le parc a déjà fourni 33 squelettes humains et plus de 700 000 pièces lytiques aux archives de l'institution. Les dates diffusées par l'archéologue, qui indiquent une présence humaine dans le nord-est il y a au moins 50 000 ans, sont contestées par un grand nombre de ses confrères. Niède Guidon ne se risque pas à dire comment serait l'apparence physique des responsables des dessins préhistoriques de la Serra da Capivara, même si certaines études préliminaires suggèrent qu'ils pouvaient ressembler au peuple de Luzia. LE PROJET Origines et microévolution de l'homme en Amérique : une approche paléoanthropologique III - nº 200401321-6 MODALITÉ Projet thématique COORDONNATEUR Walter Neves – Institut de Biosciences de l’Université de São Paulo (USP) INVESTISSEMENT 1 555 665,94 réaux (FAPESP) Article scientifique HUBBE, M. et al. Paleoamerican Morphology in the Context of European and East Asian Late Pleistocene Variation: Implication for Human Dispersion Into the New World. American Journal of Physical Anthropology. v. 50, n. 3, pp. 442-53. mars 2011. [post_title] => Comme nos parents [post_excerpt] => Comme nos parents [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => comme-nos-parents [to_ping] => [pinged] => [post_modified] => 2013-06-27 18:59:44 [post_modified_gmt] => 2013-06-27 21:59:44 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=117794 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [1] => stdClass Object ( [ID] => 117806 [post_author] => 17 [post_date] => 2013-05-14 15:44:49 [post_date_gmt] => 2013-05-14 18:44:49 [post_content] => Publié en mai 2011 Le losartan, qui est l’un des médicaments les plus utilisés dans le monde pour contrôler l’hypertension artérielle, interrompt la croissance des tumeurs de la peau dans des expérimentations réalisées sur des souris dans les laboratoires de la Faculté de Médecine de l’Université de São Paulo (FMUSP). Cet ancien médicament a trouvé une nouvelle application potentielle facilitant la recherche de nouveaux traitements contre le cancer, mais il serait précipité de conclure que ce remède pourrait déjà être utilisée avec cette nouvelle finalité juste parce qu’il s’agit d’un médicament générique produit au Brésil avec des effets secondaires déjà bien connus. «Il nous faut maintenant apprendre à utiliser ce médicament pour améliorer le traitement des tumeurs», alerte le médecin Roger Chammas, professeur à la FMUSP et l’un des coordonnateurs de cette étude publiée en mai 2010 dans la revue Cancer Chemotherapy and Pharmacology. Les résultats de l’étude réalisée par Andreia Otake indiquent que le médicament a bloqué l’action de l’angiotensine II, un fragment de protéine (ou peptide) qui permet de contrôler la pression artérielle conjointement à d’autres molécules produites par l’organisme. Cette étude et d’autres, montrent que l’angiotensine II pourrait avoir une autre fonction moins connue et moins explorée qui serait de permettre aux tumeurs de former ou d’attirer les vaisseaux sanguins qui apporteront les nutriments nécessaires à leur survie. Avec moins d’angiotensine, moins de vaisseaux sanguins se développeront à l’intérieur de la tumeur qui pourra ainsi mourir d’inanition. Selon Chammas, ces études renforcent la perspective que les molécules avec qui la tumeur interagit et appelé microenvironnement tumoral (non seulement la tumeur), puissent être une piste pour de nouveaux médicaments. Ces dernières années, différentes études ont indiqué que l’angiotensine II promouvait la migration et la prolifération des cellules endothéliales qui composent la couche la plus interne des vaisseaux sanguins, participant ainsi à la régulation des processus inflammatoires qui parfois indiquent le début ou le développement de tumeurs. «Une tumeur peut être vue comme une inflammation persistante, une blessure qui ne cicatrise pas et qui attire les vaisseaux sanguins qui, à leur tour, contribuent à la dissémination du cancer dans l’organisme», commente Roger Chammas. Le fait qu’il y ait des récepteurs d’angiotensine à la surface des cellules endothéliales des vaisseaux qui alimentent les tumeurs ouvre la perspective d’un nouvel usage pour les médicaments antihypertensifs comme le losartan. Des tests préliminaires en cours sur des groupes limités de personnes aux États-Unis attestent l’action anti- tumorale de ce médicament utilisé seul ou conjointement avec des antihypertensifs ayant un mécanisme d’action similaire, comme le captopril. Le losartan a été découvert en 1986 par un groupe de jeunes chercheurs du laboratoire DuPont et il a été le premier remède d’une classe de nouveaux antihypertensifs appelés antagonistes des récepteurs de l’angiotensine II. Ce médicament, produit par le laboratoire Merck, bien qu’il soit déjà devenu un générique au Brésil, est en train de déboucher sur de nouvelles applications. L’une d’entre elles concerne le traitement des maladies rénales chroniques. Depuis la fin des années 80, le médecin de l’USP, Roberto Zatz, mène des études des rats qui ont démontré que des doses élevées de losartan permettaient d’interrompre les dommages causés par la maladie rénale chronique. Il a également participé à des études cliniques internationales qui, communément, sont partiellement à la base des médicaments de ce type utilisés pour traiter actuellement les maladies rénales graves. Roberto Zatz a proposé à Roger Chammas d’essayer le remède sur des tumeurs de la peau dont il voulait interrompre la croissance grâce à sa capacité de réduire la pression artérielle, la croissance des vaisseaux sanguins et les processus inflammatoires. Robson dos Santos est en train de commencer à explorer les applications thérapeutiques, à l’Université Fédérale de Minas Gérais (UFMG), d’un dérivé de l’angiotensine II, l’angiotensine 1-7, appelé ainsi pour posséder sept acides aminés au lieu de huit comme l’angiotensine II. L’angiotensine 1-7, enveloppée par un sucre appelé cyclodextrine et administrée oralement , a permis de réduire les dommages causés sur des cellules du cœur de souris qui avaient été soumises à un infarctus provoqué, comme cela est détaillé dans une étude publiée au mois de mars de cette année dans la revue Hypertension. D’après lui, cette même formule peut réguler les niveaux de glucose et de lipides (graisses), conformément aux expériences réalisées sur des animaux de laboratoire. Robson Santos déclare que l’administration de l’angiotensine 1-7 par voie endoveineuse s’est révélée positive pour traiter des femmes atteintes de prééclampsie, un problème grave qui peut apparaître à partir du deuxième mois de grossesse, accompagné d’hypertension et de rétention de liquides. D’après lui, les tests avec cette formulation par voie orale devront commencer d’ici peu. «Nous espérons obtenir des résultats en six mois», dit-il. «En ce qui concerne la prééclampsie, l’angiotensine 1-7 exogène permet de normaliser le niveau d’angiotensine 1-7 dans le sang». Parallèlement à ces résultats prometteurs, des recommandations apparaissent préconisant un usage prudent des médicaments antihypertensifs destinés à d’autres finalités. Selon une étude publiée en juin 2010 dans la revue médicale Lancet Oncology, les personnes soumises à des thérapies expérimentales à l’aide d’hypertensifs qui agissent sur l’angiotensine pour traiter des maladies cardiovasculaires et le diabète ont eu, durant au moins un an, un risque 1,2 plus élevé de contracter un cancer, principalement du poumon, que les personnes non traitées. Ce risque a éveillé l’attention bien qu’il soit faible. Le même médicament peut en principe agir contre les tumeurs ou en leur faveur car le cancer comprend un large éventail de maladies distinctes. Les spécialistes ont identifié 200 types de cancer, tous caractérisés par des cellules qui se développent de manière incontrôlée et qui envahissent les tissus voisins. Les spécificités sont chaque fois plus valorisées pour orienter le diagnostic et le traitement. «Une tumeur du poumon chez un individu peut être différente chez une autre personne, bien que son origine provienne du même type de cellule du poumon. Ces différences s’expliquent par les diverses signatures moléculaires des tumeurs, à l’image d’une empreinte digitale, et qui indiquent quelles sont les voies moléculaires altérées pour un cancer donné», déclare Chammas. « Nous essayons de mieux comprendre ces signatures pour améliorer le diagnostic et les traitements des différents types de cancer. Nous devons penser différemment et voir la tumeur comme un organe avec ses propres mécanismes de fonctionnement». Au Brésil, la perspective de pouvoir tester des médicaments hypertensifs comme anti-tumoraux grâce à des essais contrôlés sur des êtres humains, est éloignée, vu les tracasseries auxquelles se confrontent les chercheurs et les médecins d’institutions publiques pour pouvoir profiter des données obtenues en laboratoire et résoudre les problèmes de santé publique. L’approbation par les organismes fédéraux d’une proposition d’études peut prendre un an ou plus, et c’est la principale réclamation, alors que dans des pays comme les États-Unis ou même l’Afrique du Sud, il ne faut en moyenne que trois mois. Santos, de l’UFMG, nous dit qu’il a dû attendre six mois avant de recevoir toutes les autorisations nécessaires pour pouvoir développer les tests d’angiotensine 1-7 avec administration de cyclodextrine par voie endoveineuse sur des femmes atteintes de prééclampsie grave. La sollicitation pour pouvoir tester la formulation par voie orale a mis un an avant de revenir de la commission d’éthique de la recherche de la propre université, et de la Commission Nationale d’Éthique de la Recherche (Conep), du Ministère de la Santé. «C’est une réalité décourageante», confie-t-il. «Il manque un esprit d’urgence au Brésil», observe Paulo Hoff, directeur général de l’institut du Cancer de São Paulo (Icesp) inauguré en 2008, lié à la FMUSP, et qui accueille environ 12 mille nouveaux cas de cancer par an. «La bureaucratie pourrait être plus flexible, rapide et transparente, sans perdre le contrôle», déclare Paulo Hoff, l’un des auteurs d’un article publié en 2010 dans la revue Lancet Oncology. Il propose une conciliation entre les intérêts gouvernementaux, les médecins et les professeurs universitaires pour favoriser la planification et l’exécution des phases initiales des médicaments candidats dans des pays qui, comme le Brésil, sont principalement recherchés pour valider les résultats obtenus quand la réglementation est plus flexible. Paulo Hoff déclare qu’il a perçu un intérêt accru des représentants du gouvernement fédéral pour soutenir la réalisation de tests cliniques au Brésil. « Nous devons agir avec flexibilité», suggère-t-il. «Nous de pouvons pas entrer dans une négociation en pensant que c’est notre point de vue qui va prévaloir». Le médecin de l’Icesp, Max Mano, estime qu’une approbation plus flexible des tests cliniques avec de nouveaux médicaments ou de nouvelles applications de médicaments déjà utilisés, pourrait surtout profiter au traitement des tumeurs rares qui pourraient apparaître sur n’importe quel organe et qui pourraient être facilement confondues avec d’autres types. Dans un article publié en 2010, Max Mano et Paulo Hoff alertent sur le fait que les tumeurs rares sont responsables de 25% des décès dûs au cancer aux États-Unis et probablement aussi au Brésil. «Une tumeur rare n’est pas compliqué à traiter», dit Paulo Hoff. «Ce qui est compliqué c’est de trouver un médecin qui la reconnaisse et qui sache comment la traiter». Certains types de cancer, comme celui de l’estomac, sont rares en Europe, en raison de la mise en place de mesures sanitaires, de l’amélioration des habitudes alimentaires et du diagnostic précoce, mais ils sont encore fréquents au Brésil et dans d’autres pays latino-américains. «De nombreuses tumeurs sont liées à des processus infectieux chroniques mal résolus», affirme Max Mano. «La recherche n’avance pas à la même vitesse que la maladie». Paulo Hoff, quant à lui, souligne qu’il y a eu des avancées, comme la standardisation des tests pour diagnostiquer les différents types de cancer. «Nous ne sommes pas en train de gagner la bataille contre le cancer, nous devons accélérer», admet-il. Articles scientifiques 1. ARAI, R.J. et al. Building research capacity and clinical trials in developing countries. The Lancet Oncology. v. 11. août 2010. 2. OTAKE, A.H. et al. Inhibition of angiotensin II receptor 1 limits tumor-associated angiogenesis and attenuates growth of murine melanoma. Cancer Chemotherapy and Pharmacology. v. 66, n. 1, p. 79-87. mai 2010. 3. MARQUES, F.D. et al. An oral formulation of angiotensin-(1-7) produces cardioprotective effects in infarcted and isoproterenol-treated rats. Hypertension. v. 57, p. 477-83. mars 2011. [post_title] => Pression contre le cancer [post_excerpt] => Pression contre le cancer [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => pression-contre-le-cancer [to_ping] => [pinged] => [post_modified] => 2013-05-14 15:44:49 [post_modified_gmt] => 2013-05-14 18:44:49 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=117806 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [2] => stdClass Object ( [ID] => 117828 [post_author] => 475 [post_date] => 2013-05-14 16:32:09 [post_date_gmt] => 2013-05-14 19:32:09 [post_content] => Publié en avril 2011 art4395img2La tranche de 1% de la population mondiale vivant avec les terribles douleurs causées par l’arthrite rhumatoïde, inflammation chronique qui provoque une dégénération des articulations, sait combien les corticoïdes sont importants pour améliorer leur qualité de vie. Mais il n’y a pas que cette tranche de la population qui soit concernée car des millions de porteurs d’allergies respiratoires, de maladies de la peau, de victimes de tumeurs cérébrales et de patients souffrants d’autres affections où la réponse inflammatoire du corps devient excessive, ont bénéficié ces dernières décennies de la puissante action anti-inflammatoire de ces composés, en général des dérivés synthétiques de la cortisone, principal corticoïde secrété par les glandes surrénales humaines. Les corticoïdes, découverts au début du siècle par Edward Calvin Kendall et Philip Showalter Hench, ce qui leur a valu le Prix Nobel de Médecine en 1950, ne fonctionnent cependant pas toujours dans le sens voulu, du moins quand il s’agit d’hormones synthétiques. Ils peuvent provoquer exactement l’effet inverse à celui attendu et accroître l’inflammation dans certaines régions du cerveau. C’est ce que montre une étude des chercheurs Carolina Demarchi Munhoz et Cristoforo Scavone, de l’Université de São Paulo (USP), et de Robert Sapolsky, de l’Université de Stanford, aux États-Unis, et publiée dans la revue Journal of Neuroscience, fin 2010. Au moyen d’injections intraveineuses de fragments de bactéries, le groupe de chercheurs a provoquée des réponses inflammatoires sur des souris de laboratoire afin d’évaluer le pouvoir des corticoïdes dans la modulation des réactions biochimiques provoquées par des inflammations du cerveau, comme dans le cas de tumeurs ou même d’accidents vasculaires cérébraux (AVC). La réponse naturelle de l’organisme face à une inflammation est, comme on le sait, de secréter des corticoïdes, et l’adrénale des souris produit de la corticostérone, hormone identique à la cortisone humaine. Avant de provoquer l’inflammation, Carolina a retiré les glandes adrénales des souris (adrénalectomie) et a placé sous leur peau des capsules de corticostérone qui ont libéré lentement la substance. Ainsi, en contrôlant les doses, elle a pu observer si l’action anti-inflammatoire variait avec différents niveaux de corticoïdes dans le sang des animaux, séparés en trois groupes, chacun recevant une dose différente d’hormone. Le premier groupe a reçu un bas niveau de corticostérone, équivalent à celui produit naturellement par les rongeurs. Le second a reçu une dose intermédiaire, identique à celle trouvée dans l’organisme en cas de léger stress, comme une frayeur provoquée par le frappement soudain à une porte, et le dernier a reçu une quantité élevée correspondant à des niveaux modérés de stress, à l’exemple de l’inquiétude provoquée par le souci de ne pas pouvoir payer ses factures à la fin du mois. Un quatrième groupe dont les glandes adrénales n’ont pas été retirées a été utilisé comme groupe de contrôle. La relation entre le niveau de corticoïdes dans le sang et le degré de stress est importante car cette réaction adaptative de l’organisme à des situations nouvelles ou menaçantes permet également aux adrénales de libérer des corticoïdes. Quelques années auparavant, le groupe de chercheurs avait déjà démontré qu’un stress chronique et imprévisible pouvait provoquer une inflammation cérébrale. La question était maintenant de savoir si l’effet dépendait des corticoïdes et de quelle manière cela se produisait. À l’aide de procédés immunologiques et de biologie moléculaire, ils ont évalué l’impact des différents niveaux de corticoïdes dans deux régions du cerveau des souris; l’hippocampe, responsable de la mémoire, de l’apprentissage et, dans des cas pathologiques du développement de l’épilepsie et, le cortex frontal, associé aux processus cognitifs élevés comme la prise de décisions. Ils ont ensuite observé un modèle complexe de réponses des gènes analysés. Selon la dose, certains gènes ont fonctionné de la même manière dans les deux régions (par exemple, ils ont été actionnés ou désactivés dans les deux régions), alors que les autres ont eu un fonctionnement distinct (actifs dans une région et désactivés dans l’autre). Ces modifications dépendent du contrôle de l’activité du facteur nucléaire kappaB (NF-kappaB), molécule de communication intracellulaire centrale dans le processus biochimique qui régule la réponse inflammatoire. Jusqu’alors, on pensait que le NF-kappaB était toujours bloqué par les corticoïdes qui auraient ainsi un effet anti-inflammatoire. Les corticoïdes ont diminué l’activité du NF-kappaB avec la dose une plus élevée et réduit l’inflammation dans l’hippocampe. Les doses faibles et moyennes ont toutefois augmenté l’action du NF-kappaB et par conséquent le signal qui déclenche l’inflammation. La relation a été différente dans le cortex frontal. La dose élevée de corticostérone a été anti-inflammatoire alors que la dose intermédiaire a aggravé l’inflammation. Bien qu’il s’agisse de résultats expérimentaux, ils peuvent avoir une importance clinique, principalement pour la neurologie et la psychiatrie qui traitent les inflammations cérébrales et leurs conséquences. Selon Carolina, les doses utilisées dans les tests sur les souris sont proches de celles adoptées dans des études sur l’être humain. Elle propose cependant que les données soient analysées avec prudence. «Nous avons montré que l’action des corticoïdes, même avec des doses appropriées, n’est pas uniquement anti-inflammatoire, mais l’étude a été réalisée sur des souris et en utilisant leur corticoïde naturel», souligne-t-elle. Ceci peut faire une grande différence car les corticoïdes produits par l’organisme ne fonctionnent pas de la même manière que les corticoïdes synthétiques utilisés comme médicament. Une de ces différences est qu’à peine 10% de la quantité de corticoïdes secrétée par les glandes adrénales est disponible dans le sang, prête à agir, autant dans les tissus périphériques que dans le système nerveux central. Les synthétiques, quant à eux, sont totalement prêts à agir sur les tissus périphériques mais ils sont en bonne partie filtrés en arrivant dans la circulation cérébrale car une barrière spéciale (hémato-encéphalique) revêt les vaisseaux sanguins du cerveau et contrôle le passage des différents composés. C’est pour cette raison que quand il s’agit de traiter des inflammations cérébrales, les médecins augmentent la dose du médicament en espérant qu’une plus grande quantité franchisse la barrière hémato-encéphalique qui fonctionne comme un manteau semi-perméable qui, quand la pluie est faible, évite le passage de l’eau et de se mouiller, mais quand la pluie est forte laisse passer l’eau à travers les mailles du tissu. En fonction de ce mécanisme, le niveau de corticoïdes synthétiques dans le sang périphérique peut être substantiellement différent de celui qui atteint le cerveau. Ainsi, la dose calculée par les médecins peut sembler en fait élevée à la périphérie mais elle est intermédiaire dans le tissu cérébral. Comme ce sont les doses intermédiaires qui augmentent la signalisation inflammatoire dans l’hippocampe et dans le cortex frontal, les résultats servent d’alerte en qui concerne l’usage médical de ces composés quand la cible est le système nerveux. Des expérimentations supplémentaires sont donc encore nécessaires et Carolina et Cristoforo Scavone ont l’intention de les commencer sous peu afin de voir si les corticoïdes synthétiques agissent sur le cerveau de la même manière que les naturels. «Ces données servent d’alerte pour souligner qu’il y a encore des variables non comprises sur le fonctionnement des corticoïdes»”, déclare Cristoforo Scavone. Troubles de l’humeur Cristoforo Scavone a récemment débuté une collaboration avec l’équipe de Beny Lafer, du Département Psychiatrique de la Faculté de Médecine de USP, afin d’identifier la possible influence de processus inflammatoires sur le développement de problèmes psychiatriques. Beny Lafer est principalement intéressé par le fait de savoir si les altérations biochimiques liées à l’inflammation peuvent affecter l’équilibre des cellules et les induire à mourir sur des personnes atteintes de trouble bipolaire, qui se manifestent par des alternances d’épisodes dépressifs et maniaques (euphorie). Ce trouble mental, décrit il y a pratiquement 2 mille ans par Aretaeus de Cappadoce et auparavant appelé psychose maniaco-dépressive, atteint sous sa forme la plus grave (type 1) environ de 1% de la population et a été traité de manière relativement efficace au cours de ces dernières décennies. Cependant son origine biologique est toujours incertaine. Dans les années 90, des études internationales ont constaté une diminution considérable du nombre de cellules (neurones et cellules gliales) et une réduction des mécanismes de protection cellulaire dans le cerveau de personnes atteintes de trouble bipolaire. Cette perte cellulaire, liée à l’inflammation qui s’intensifie au cours des crises maniacodépressives, affecte le cortex frontal et possiblement l’hippocampe, deux des régions étudiées par Carolina et Cristoforo Scavone. La perte ou la dysfonction de neurones dans le cortex frontal permet peut être d’expliquer pourquoi les patients ont des difficultés à contrôler leurs impulsions et leurs épisodes maniaques. Dans un travail de révision publié cette année dans la revue Progress in Neuro-Psychopharmacology & Biological Psychiatry, Beny Lafer et Cristoforo Scavone ont proposé un modèle essayant d’expliquer comment les mécanismes inflammatoires peuvent modifier une voie de signalisation intracellulaire actionnée par la protéine Wnt qui régule la prolifération, la migration et la spécialisation des cellules. Tous ces processus semblent être (à un moindre ou plus grand degré) compromis durant les troubles de l’humeur, comme la bipolarité et la dépression. Dans ce type de problèmes psychiatriques, Il y a de fortes évidences montrant que le dysfonctionnement de la chaine de réactions chimiques déclenchée par cette protéine est dû au fait que deux des médicaments les plus utilisés pour traiter le trouble bipolaire (le lithium et le valproate) agissent sur ces voies de communication intracellulaire, rétablissant ce canal de transmission et éventuellement évitent la mort des neurones. «Les découvertes sur les mécanismes d’action des stabilisateurs de l’humeur ont modifié le cours des recherches sur les récepteurs dans les membranes cellulaires et sur les neurotransmetteurs qui se lient à ces récepteurs pour que cela ce produise dans l’univers intracellulaire», explique Beny Lafer. Cette nouvelle manière d’aborder les problèmes psychiatriques a rapproché les équipes de Cristoforo Scavone et de Beny Lafer et permettra peut être de mettre au point de nouveaux traitements. Parmi les molécules qui dans l’avenir pourront devenir une bonne cible thérapeutique pour le trouble bipolaire, Beny Lafer souligne le facteur neurotrophique dérivé du cerveau (BDNF). Cette molécule, qui a de nombreuses fonctions, régule également la survie et la ramification des neurones ainsi que les fonctions relatives à la signalisation par la protéine Wnt qui, d’une certaine manière, sont déréglées durant les épisodes maniacodépressifs. Il semble même y avoir un rapport moléculaire entre les troubles de l’humeur, l’action des corticoïdes et l’influence du stress, bien qu’il n’ait pas encore été défini. Les chercheurs supposent que ce rapport est dû au NF-kappaB, autant impliqué dans la réponse cérébrale aux corticoïdes que dans la signalisation de la protéine Wnt, modifiée dans le trouble bipolaire. À la recherche de solutions et si possible de nouvelles formes de traitement, Beny Lafer et son élève de doctorat Li Wen Hu, en partenariat avec Eliza Kawamoto, mènent des recherches sur les modifications qui se produisent dans la voie de la protéine Wnt. Ils veulent comparer le niveau de protéines de cette chaîne biochimique trouvé dans le sang de personnes atteintes de trouble bipolaire et qui reçoivent une médication (lithium) depuis le début des recherches, avec celui de personnes souffrant de troubles mais n’utilisant pas de lithium et finalement avec celui d’individus sains. Ils ont jusqu’à présent collecté des échantillons de 20 personnes du premier groupe, 17 du second et 36 du troisième. «Nous ne savons pas encore si la dysfonction qui survient dans les processus inflammatoires est la cause ou la conséquence des épisodes de la maladie qui s’améliorent avec l’usage de stabilisateurs d’humeur», affirme Beny Lafer. Le fait de suspecter que les corticoïdes aggravent l’inflammation cérébrale provient d’une observation clinique. Des patients bipolaires qui prennent des corticoïdes pour combattre les inflammations voient leur cadre psychiatrique s’aggraver. En outre, l’usage de médicaments ayant une action contraire à celle des corticoïdes dans le traitement de la dépression se trouve encore en phase initiale de tests. Bien que le lithium ait un mécanisme d’action différent des corticoïdes, les chercheurs n’écartent pas le fait qu’ils puissent agir sur certaines cibles intracellulaires communes. Mais il est difficile de le savoir. «Il s’agit d’une succession d’évènements chimiques complexes, finement régulés par l’organisme, en réponse au stress et aux processus inflammatoires», déclare Cristoforo Scavone. «Interférer dans ce système pourrait déclencher des conséquences encore ignorées» Les projets 1. Le stress et la signalisation intracellulaire dans l’inflammation déclenchée par l’lps dans le système nerveux central: participation des glucocorticoïdes et de la voie glutamatergique NO dans la modulation du facteur de transcription nf-kb – nº 2002/02298-2 / 2. Participation des map kinases, protéines de choc thermique et de la voie d’apoptose dans les effets adverses des glucocorticoïdes dans le système nerveux central – nº 2004/11041-0 / 3. Évaluation de l’implication de la voie de signalisation Wnt dans la physiopathologie de troubles affectifs bipolaires – nº 2008/08191-1 Modalité 1, 2 et 3. Soutien régulier au projet de recherche Coordonnateurs 1 et 2. Cristoforo Scavone – ICB/USP 3. Beny Lafer – FM/USP Investissement 1. 191.086,25 réaux / (FAPESP)/ 2. 229.197,46 réaux (FAPESP)/ 3. 57.564,57 réaux (FAPESP) Articles scientifiques 1. Munhoz, C. D. et al. Glucocorticoids exacerbate lipopolysaccharide-induced signaling in the frontal cortex and hippocampus in a dose-dependent manner. Journal of Neuroscience. v. 30(41), p. 13.690-8, 13 octobre 2010. 2. Hu, L.W. et al. The role of Wnt signaling and its interaction with diverse mechanisms of cellular apoptosis in the pathophysiology of bipolar disorder. Progress in Neuro-Psychopharmacology and Biological Psychiatry. v. 35(1), p. 11-17, 15 jan. 2011. [post_title] => Effet inattendu [post_excerpt] => Effet inattendu [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => effet-inattendu [to_ping] => [pinged] => [post_modified] => 2013-06-27 19:02:31 [post_modified_gmt] => 2013-06-27 22:02:31 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=117828 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [3] => stdClass Object ( [ID] => 117840 [post_author] => 17 [post_date] => 2013-05-14 17:13:32 [post_date_gmt] => 2013-05-14 20:13:32 [post_content] => Publié en juillet 2011 [caption id="attachment_117846" align="alignright" width="300"]Une orchidée hybride de la forêt atlantique Une orchidée hybride de la forêt atlantique[/caption] Darwin, outre son talent, a eu de la chance. Quand il est arrivé dans l’archipel des Galápagos dans le Pacifique, il a découvert une riche variété de tortues et d’oiseaux vivant dans des conditions environnementales particulières, comme l’isolement et une alimentation qui ont dû influencer fortement leur évolution au cours de millions d’années. Les causes probables expliquant le fait qu’il y ait tant d’animaux si identiques (les oiseaux par exemple, avec un bec plus court ou plus long en fonction de leur alimentation) semblaient évidentes. Mais le monde n’est pas seulement fait comme les Galápagos. Les biologistes qui étudient actuellement les espaces riches en biodiversité comme la forêt atlantique, ne découvrent pas forcément des histoires évolutives et des espèces proches avec des différences si évidentes entre elles. En compensation, quand ils travaillent sur des extraits d’ADN, connus sous le nom de marqueurs moléculaires, ils peuvent désormais connaître les bases génétiques de la diversification des espèces. Le fait que des espèces de plantes et d’animaux génétiquement proches puissent se croiser naturellement entre elles et créer des hybrides fertiles est un mécanisme de création de nouvelles espèces qui acquiert une reconnaissance grandissante chez les chercheurs. Cette idée était auparavant peu admissible car, en général, les espèces différentes possèdent un nombre distinct de chromosomes, structures à l’intérieur des cellules qui contiennent les gènes. Cette différence pourrait entraver le développement de l’embryon car chaque chromosome venant du mâle doit être aligné avec son équivalent qui vient de la femelle quand la cellule fécondée se divise. Sans cet alignement, la cellule ne se reproduit pas et meurt dans la plupart des cas. Mais il y a des exceptions et elles semblent plus fréquentes qu’on ne le pensait. Le croisement entre plantes ou animaux d’espèces proches peut créer des êtres qui, bien qu’étant hybrides, sont fertiles, même si dans la phase initiale de multiplication cellulaire certains chromosomes ne trouvent pas leur paire respective. Ces hybrides, avec du temps et des conditions environnementales favorables, peuvent créer des espèces différentes de celles dont ils proviennent. Aujourd’hui le mot «hybride» ne définit pas seulement les êtres stériles comme la mule qui est le résultat du croisement entre un âne et une jument, mais également des êtres fertiles comme les orchidées de la forêt atlantique conservées dans une des pépinières de l’Institut Botanique de São Paulo. L’hybride, avec 38 chromosomes, est le résultat du croisement naturel entre deux espèces sauvages qui sont l’Epidendrum fulgens, avec 24 chromosomes et l’Epidendrum puniceolutem, avec 52 chromosomes. Extérieurement, les différences sont subtiles. Les fleurs appelées plantes parentales sont rouges ou jaunes, alors que celles des hybrides peuvent être orangées avec des points rouges. La génétique seule ne suffit pas pour reconnaître les hybrides fertiles. Ils sont désormais identifiés avec une certaine facilité car, outre le fait de comparer le nombre de chromosomes, les spécialistes examinent tout d’abord les aspects les plus visibles des environnements où les hybrides et leurs géniteurs vivent. Ils examinent ensuite l’histoire du paysage, étudiant les cartes géologiques et celles des variations climatiques qui indiquent les déplacements de bloc rocheux, les tremblements de terre ou les variations prolongées de pluie ou de température qui rapprochent ou éloignent des populations de plantes ou d’animaux et permettant ou non la formation de nouvelles espèces. Dans le cas des orchidées, les hybrides vivaient autant sur des bancs sablonneux, environnement typique de l’E. puniceolutem, que sur des dunes où l’on trouve l’E. fulgens. «Cette versatilité suggère que certaines régions du génome peuvent être échangées entre ces espèces, conférant à l’hybride une meilleure capacité d’adaptation à l’habitat», déclare le botaniste Fábio Pinheiro, chercheur associé de l’Institut Botanique de São Paulo. «Il est probable que l’hybridation naturelle soit une des explications de la grande diversité du genre Epidendrum, constitué d’environ 1 500 espèces». Au cours d’une présentation au Kew Botanic Gardens de Londres, en mai 2009, Fábio Pinheiro n’a pas mentionné, par précaution, le nombre de chromosomes des hybrides par peur des réactions que cela allait susciter. «Mais les spécialistes en orchidées du Kew m’ont posé la question et quand ils ont su, ils n’y ont pas cru. Ils ont dit qu’il y avait une erreur mais après ils ont accepté» raconte-t-il. La conception prédominante est que les espèces différentes ne se croisent pas naturellement entre elles et que les hybrides qui par hasard apparaissent sont stériles. L’argument avancé est que les cellules germinatives n’arrivent pas à créer de descendants viables. Cependant, la majorité des plantes est le résultat d’hybridations naturelles ou induites entre des espèces proches, rappelle Fábio de Barros, coordonnateur du projet à l’Institut Botanique. C’est l’hybridation induite qui fait apparaître des espèces uniques d’orchidées et de plantes utilisées dans l’alimentation, comme le maïs et la canne à sucre. Les hybrides possèdent normalement certains avantages dans le cas des aliments car ils résistent davantage aux maladies et sont plus productifs que les espèces pures. «Darwin avait déjà écrit que les hybrides pouvaient être stériles ou fertiles, mais il n’avait pas les moyens de le prouver car il n’avait pas de marqueurs moléculaires pour identifier les signatures génétiques d’hybrides fertiles», déclare Fábio de Barros. «Apparemment l’hybridation est assez habituelle et semble avoir un rôle beaucoup plus important qu’on ne le pensait». [caption id="attachment_117847" align="alignleft" width="290"]Hybride avec fleur bicolore: rouge, comme l’Epidendrum puniceolutem, et jaune, comme l’E. fulgens Hybride avec fleur bicolore: rouge, comme l’Epidendrum puniceolutem, et jaune, comme l’E. fulgens[/caption] Les botanistes ont déjà vu d’autres cas. Les orchidées Ophrys, de la région méditerranéenne, créent des hybrides d’une fertilité élevée. Le croisement entre deux plantes basses avec des fleurs jaunes européenne et étasunienne, Senecio squalidus et S. vulgaris, a créé un hybride qui attire davantage de pollinisateurs et qui pourrait produire plus de fruits que les espèces dont elles proviennent. Espaces mélangés Les animaux créent également des hybrides fertiles. Le généticien de l’Université Fédérale de l’État du do Rio Grande do Sul (UFRGS), Thales Freitas, a découvert que deux espèces de rongeurs souterrains appelés tuco-tucos (Ctenomys minutus, avec 42 à 50 chromosomes, et C. lami, avec 54 à 58 chromosomes) sont capables de s’accoupler et d’avoir parfois une progéniture fertile. Le résultat dépend de l’origine du mâle et de la femelle. Si la femelle appartient à l’espèce Ctenomys minutus et le mâle à l’espèce Ctenomys lami, la progéniture peut être fertile. La combinaison inverse avec des mâles de l’espèce Ctenomys minutus et des femelles de l’espèce Ctenomys lami, crée des hybrides stériles. C’est le même cas de figure pour des grenouilles de la forêt atlantique du genre Phyllomedusa. Tuliana Brunes étudie la formation des espèces Phyllomedusa, l’identification génétique des hybrides et les origines historiques des zones hybrides à l’Université Publique Pauliste (Unesp) et à l’Université de Porto, au Portugal. Les endroits les plus probables où les hybrides peuvent apparaître sont les espaces qui réunissent des populations d’espèces proches, animales ou végétales et qui auparavant vivaient séparées. «Nous avons découvert plus fréquemment des hybrides dans des zones de transition écologique, appelées écotones, qui réunissent deux types de végétation et qui favorisent la rencontre de populations de plantes et d’animaux auparavant éloignées géographiquement», déclare João Alexandrino, de l’Université Fédérale de São Paulo (Unifesp). Il y a quelques années, quand il était à l’Université de Berkeley en Californie, aux États-Unis, João Alexandrino a constaté ce phénomène en étudiant des hybrides fertiles résultant du croisement d’espèces apparentées à la salamandre des forêts, près des fleuves californiens. João Alexandrino, Tuliana Brunes et Célio Haddad, de l’Unesp, ont constaté que les grenouilles créent des hybrides dans deux types de forêt atlantique, l’une plus humide et l’autre plus sèche, qui coexistent dans la province pauliste. Les hybrides d’orchidées et de tuco-tucos se trouvaient également dans des zones occupées par des groupes d’espèces avec lesquels ils se sont mis à coexister, probablement à cause des variations climatiques qui ont réuni les zones auparavant isolées ou qui ont forcé la migration de plantes ou d’animaux durant des milliers d’années. Les processus qui ont amené à la séparation des espèces, favorisant le croisement ou l’hybridation entre des espèces proches ont provoqué l’apparition de forêts possédant une grande biodiversité comme la forêt atlantique et qui sont devenues «un creuset de nouvelles espèces en transformation continue», selon la définition de Nuno Ferrand, de l’Université de Porto. «La richesse en diversité biologique ne dépend pas uniquement du nombre d’espèces mais également des processus qui peuvent faire apparaître de nouvelles espèces», déclare Clarisse Palma da Silva, de l’Institut Botanique. Le mécanisme le plus connu de création de nouvelles espèces d’animaux ou de plantes dépend de l’accumulation des mutations génétiques chez les descendants d’une même espèce. On peut voir maintenant que l’apparition de nouvelles espèces peut découler également du regroupement de populations d’espèces différentes qui auparavant vivaient séparées. Tout est résolu? Loin de là. «Les règles concernant l’apparition et la différentiation des espèces ne sont pas toutes évidentes car l’évolution est un processus continu qui suit des chemins différents durant de longues périodes», dit Craig Moritz, biologiste de l’Université de Berkeley en Californie. Effets de l’isolement L’un des principes qui a prévalu depuis Darwin est que l’isolement favorise la diversité génétique et la différentiation des espèces au cours de milliers ou de millions d’années. L’un des exemples les plus connus concerne deux espèces de reptiles appelés jararacas (vivant exclusivement sur des îles, le Bothrops insularis, qui ne vit que dans l’île de Queimada Grande, et le Bothrops alcatraz, dans l’île d’Alcatrazes, à moins de 50 kilomètres sur le littoral sud pauliste) qui ont commencé à se différencier en s’isolant chacun sur son île il y a environ 18 000 ans. [caption id="attachment_117848" align="alignright" width="300"]Tuco-tuco: hybrides dans les sables du sud Tuco-tuco: hybrides dans les sables du sud[/caption] Il peut y avoir encore beaucoup de choses cachées. Les travaux d’Ana Carolina Carnaval, biologiste brésilienne actuellement à l’Université de la ville de New-York, indiquent que les variations climatiques (de sec à humide) et d’altitude (de zéro à 1 600 mètres) le long d’une bande littorale de 5 000 kilomètres de forêt atlantique favorisent l’isolement, l’apparition et le développement de nouvelles espèces avec une intensité plus forte qu’en Amazonie où les variations climatiques et le relief ne sont pas aussi intenses. Ces zones isolées qui séparent et qui protègent les plantes et les animaux forment ce que l’on appelle des refuges, des morceaux de forêt qui ont survécu aux intenses variations climatiques durant ces derniers milliers d’années et qui ont provoqué la diminution des forêts à proximité et par conséquent l’élimination des populations d’animaux qui y vivaient. Luciano Beheregaray, biologiste brésilien qui enseigne dans les Universités Flinders et Macquarie, en Australie, a constaté que les États-Unis, le Royaume-Uni et la France sont les chefs de file de la production scientifique mondiale croissante dans ce domaine, appelée phylogéographie et regroupant les analyses génétiques, géographiques, géologiques et historiques. Dans son relevé, le Brésil, qui est le pays le plus riche en biodiversité, occupe la 15ème place parmi les 100 pays analysés. «Nous pouvons aller beaucoup plus loin en faisant des analyses plus complètes de nos données au lieu de ne rien faire», alerte Célio Haddad. «Nous collectons les données mais ce sont les spécialistes d’autres pays qui les analysent. Nous devrions être les leaders dans ce domaine et non pas être à la traîne». Article scientifique PINHEIRO, F. et al. Hybridization and introgression across different ploidy levels in the Neotropical orchids Epidendrum fulgens and E. puniceoluteum. Molecular Ecology. v. 19, n. 18. p. 3981-94. 2010. [post_title] => Quand les hybrides sont fertiles [post_excerpt] => Quand les hybrides sont fertiles [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => quand-les-hybrides-sont-fertiles [to_ping] => [pinged] => [post_modified] => 2013-06-27 19:04:04 [post_modified_gmt] => 2013-06-27 22:04:04 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=117840 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [4] => stdClass Object ( [ID] => 117865 [post_author] => 17 [post_date] => 2013-05-14 17:36:07 [post_date_gmt] => 2013-05-14 20:36:07 [post_content] => Publié en mars 2011 Comme pour Newton, la gravité continue à exciter l’imagination, menant à des conclusions déroutantes. L’une d’entre elles : celui qui voyage en bateau de la ville du Cap en Afrique du Sud, à Belém, dans l’État du Pará, va parcourir une descente imperceptible. À cause des différences de masse de la planète sur le trajet entre ces deux villes (et, donc, des variations du champ de gravité de la Terre), le niveau de la mer au port du sud de l’Afrique du Sud est à 70 mètres au-dessus de la hauteur de la mer à Belém. « Personne ne perçoit cette différence de niveau car la distance entre l’Afrique du Sud et le Brésil est très grande, presque 8 000 kilomètres », assure le géophysicien Eder Cassola Molina, professeur de l’Institut d’Astronomie, Géophysique et Sciences Atmosphériques (IAG) de l’Université de São Paulo (USP). « Cela mis à part, la superficie de la mer est courbe puisque notre planète a la forme approximative d’une sphère. » En vue de passer le concours de professeur agrégé, il a élaboré l’année dernière la carte de l’Atlantique Sud qui propose ces conclusions. Actuellement, une version réduite en format A4 est affichée à la porte d’une des armoires de son vaste laboratoire. La force gravitationnelle exprime l’attraction physique entre les corps – et varie selon la masse. La marée océanique est un exemple quotidien de l’action de cette force, résultat de l’interaction gravitationnelle entre la Terre, la Lune, le Soleil et qui fait que la Terre se déforme quotidiennement. Capable d’agir sur n’importe quel point de l’Univers, la force de gravité fait en sorte que les corps en chute libre proche de la superficie terrestre souffrent une accélération d’environ 9,8 m/s2, c’est-à-dire que leur vitesse de chute augmente de 9,8 m/s à chaque seconde. L’accélération de la gravité varie subtilement sur chaque point de la Terre suivant le relief et la densité des roches de son intérieur, puisque la distribution de la masse sur la Terre est hétérogène. Il s’ensuit un effet intéressant : « La distribution de masse de la Terre contrôle le niveau dans lequel l’eau de mer va se trouver à un instant donné, puis la superficie instantanée de la mer s’ajuste suivant le champ de gravité. Ainsi, il y a des hauts et des bas sur la superficie océanique », explique Molina. « Le niveau de la mer n’est pas constant et varie avec le temps et la localisation géographique. En vérité, il n’existe même pas un niveau de la mer, mais un niveau moyen ou un niveau instantané de la mer. » Sur l’un des ordinateurs près du mur, Cassola Molina montre une autre carte, qui détaille les variations de hauteur de l’eau sur la côte brésilienne. Sur cette carte, publiée en décembre 2010 dans la revue Journal of Geodynamics, une tâche rouge au nord-est de la région Nordeste du Brésil représente une zone sur laquelle l’eau de mer doit être 10 mètres au-dessus des zones adjacentes, marquées en vert et en bleu. « Avec une de ces cartes à portée de main », déclare Molina, « le pilote d’une embarcation pourrait dévier des zones les plus élevées même sans les voir, et économiser du temps et du carburant ». Même en étant utile, cette image est néanmoins un défi à l’imagination, principalement des plus sceptiques qui diront n’avoir jamais vu une pente avec de l’eau qui s’écoule en plein milieu de la mer. En mer et sur terre [caption id="attachment_117878" align="alignleft" width="293"]La représentation de la Terre exprime la force de la gravité plus intense dans les régions en rouge La représentation de la Terre exprime la force de la gravité plus intense dans les régions en rouge[/caption] Fernando Paolo, qui actuellement fait son doctorat à l’Institut Scripps d’Océanographie aux États-Unis, a préparé cette carte en 2010, pendant que Molina, qui était son directeur de recherches, préparait la carte plus grande. Les deux images sont le résultat de la somme de deux sources d’informations, l’une locale et l’autre globale. La première représente les appareils qui mesurent la variation du champ de gravité, les gravimètres, installés sur des bouées fixées à l’arrière de 300 navires qui ont parcouru la côte de l’Afrique et du Brésil au cours des 30 dernières années. L’autre correspond aux mesureurs de variation de l’altitude de la mer installés sur deux satellites, le Geosat, lancé par la Marine des États-Unis en 1986, et le Satellite Européen de télédétection (ERS-1), en orbite depuis 1995. « En utilisant les deux sources d’information, nous avons développé une méthodologie qui nous a permis de découvrir dans certaines régions, comme la plateforme continentale brésilienne, davantage que les chercheurs qui étudient cette même région en employant uniquement des données de satellites », commente Molina. La mesure des variations de l’altitude de l’eau de mer en utilisant un satellite peut – même si cela semble étrange au premier abord – indiquer des vallées ou des collines de la superficie océanique qui ne sont pas détectées par d’autres méthodes, puisque tout ce que le satellite examine n’a pas été évalué par des relevés bathymétriques, assez coûteux et difficiles à réaliser. Sur terre, ce genre de mise à niveau, fait par des appareils GPS (systèmes de positionnement globaux), qui exige une bonne connaissance du champ de gravité, est en train de substituer les mesures de relief par la mise à niveau géométrique classique, obtenues par des équipements appelés théodolites : chaque mesure indiquait les variations de relief environ tous les 100 mètres, couvrant peu de kilomètres par jour. « Toute œuvre d’ingénierie suppose des données précises sur l’altitude » affirme Denizar Blitzkow, professeur de l’École Polytechnique de l’USP. Les instruments avec lesquels il a commencé à mesurer les variations de la gravité à São Paulo dans les années 1970 sont aujourd’hui dans le futur musée du génie civil, qui doit ouvrir ses portes cette année. Cette façon de mesurer les variations associées au champ de gravité ajoutée à d’autres techniques a indiqué, par exemple, des réserves de pétrole dans des régions du Nordeste brésilien. La mesure de la variation de masse – et de la force et de l’accélération de la gravité, directement proportionnelles à cette masse – signale également où il peut y avoir des minerais ou des cavernes inexplorées, permet d’élucider des détails auparavant inexplicables de cartes géologiques, révélant des différences dans l’épaisseur de la lithosphère (la couche superficielle de la Terre) et, enfin, de montrer comment et où la quantité d’eau de réservoirs souterrains dans les grands aquifères peut osciller au cours de l’année. « Il y a juste quelques années », explique Molina, qui a commencé à travailler avec la gravimétrie au début des années 1980, « tout cela était impossible ». Les informations de deux nouveaux satellites européens, le Grace et le Goce, détaillent les variations du champ de gravité depuis 2003 et permettent la construction d’une image plus exacte, quoiqu’un peu inconfortable, des formes de la Terre. Les grecs imaginaient la Terre comme une sphère parfaite, mais cette perfection s’est défaite à la Renaissance, à mesure que se consolidait la possibilité de la planète tourner continuellement. Newton affirmait qu’en conséquence du mouvement de rotation, la Terre devait être aplatie. Vue de l’espace, la planète continue à paraître une sphère quasi parfaite, même si les cartes établies sur la base de l’accélération de la gravité représentent une Terre déformée, parfois en assumant une forme qui rappelle un cœur. « Les satellites nous montrent que nous avions tort. Grâce à des mesures plus récentes nous avons vérifié que la Terre est très peu aplatie » explique Blitzkow. La mesure de l’axe de la Terre à l’équateur a rétréci de 250 mètres, passant de 6 370 388 mètres en 1924 aux actuels 6 370 136,5 mètres. Depuis 1982 Blitzkow travaille avec des équipes de l’IBGE (l’Institut Brésilien de Géographie et de Statistique) sur des cartes de la variation du champ de gravité sur tout le territoire national. La version la plus récente, qui inclut d’autres pays d’Amérique du Sud, est sortie en 2010, montrant que la force ou l’accélération de la gravité est inférieure sur une région qui inclut le Ceará, une petite partie des États voisins et la région centrale du pays, jusqu’au nord de l’État de São Paulo. Andes et Amazonie  Quelques jours avant Noël 2010, une semaine avant le délai final, Gabriel do Nascimento Guimarães a présenté à Blitzkow la quatrième version d’une carte plus détaillée, avec des variations du champ de gravité de l’État de São Paulo – résultat de 9 000 points de mesure sur terre, complétés par des informations des satellites Grace et Goce. Cette étude fait partie du doctorat de Guimarães et d’un projet plus vaste, coordonné par João Francisco Galera Mônico, de l’Université d’État Paulista (Unesp) à Presidente Prudente, dirigé vers ce que l’on appelle l’agriculture de précision, qui recherche les meilleures conditions de culture et de cueillette. Les cartes géodésiques, faites à partir des différences d’éléments du champ de gravité, masquent les différences de relief. Sur la carte de la hauteur géoïde de l’État de São Paulo, le relief présente des variations d’à peine six mètres de hauteur d’Est en Ouest, sans aucun signe des montagnes de 1200 mètres d’altitude proches du littoral. Sur la carte de l’Amérique du Sud, les régions les plus hautes sont sur les Andes, mais avec uniquement 40 mètres au-dessus du niveau zéro, qui correspond à celui de l’Amazonie. Le concept selon lequel l’accélération de la gravité reflète la distribution de la masse aide à comprendre ces différences actuellement si petites. « Les Andes, malgré leurs 6 000 mètres d’altitude, ne possèdent qu’un peu plus de masse que l’Amazonie », explique Blitzkow. « Si nous pouvions prendre et peser un cylindre de la superficie d’une montagne des Andes et un autre de l’Amazonie, nous verrions que la différence de poids n’est pas aussi intense que la variation de l’altitude. » Sur la carte des altitudes géoïdes de la Terre, la cordillère de l’Himalaya ne dépasse pas une petite colline. Construit par des Allemands et des Nord-américains, le Grace, abréviation de Gravity Recovery and Climatic Experiment, est un ensemble de deux satellites jumeaux, séparés entre eux de 200 kilomètres et qui ont été lancés dans l’espace en 2002. Comme ils se trouvent sur une orbite de basse altitude, d’à peine 250 kilomètres (d’autres satellites avec des fonctions similaires étaient à au moins mille kilomètres), ils mesurent les interférences les plus subtiles des montagnes et des vallées de la Terre sur la trajectoire de chacun d’eux : les équipements de bord enregistrent les variations de millésimes de millimètres dans la distance entre eux. Le Goce, sigle pour Gravity Field and Steady-state Ocean Circulation Explorer, a été construit par la Communauté Européenne et lancé en 2009 pour établir un registre complémentaire, celui de la variation des divers éléments du champ de gravité par rapport à trois axes préétablis. L’accélération de la gravité gagne constamment de nouvelles applications. L’origine de la gravité, néanmoins, différemment de celle d’autres forces, telle l’électricité et le magnétisme, demeure un mystère. Personne ne sait comment le Soleil attire la Terre et, dans une proportion moindre, comment la Terre attire le Soleil. Le projet Gnss : Investigations et applications sur le positionnement géodésique dans des études liées à l’atmosphère et à l’agriculture de précision – nº 2006/04008-2 Modalité Projet Thématique Coordonnateur João Francisco Galera Mônico – Unesp Investissement 1.279.880,42 réaux (FAPESP) Article scientifique Paolo, F.S.; Molina, E.C. Integrated marine gravity field in the Brazilian coast from altimeter-derived sea surface gradient and shipborne gravity. Journal of Geodynamics. v. 50, p. 347-54. 2010. [post_title] => La Terre modelée par la gravité [post_excerpt] => La Terre modelée par la gravité [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => la-terre-modelee-par-la-gravite [to_ping] => [pinged] => [post_modified] => 2013-06-27 19:05:14 [post_modified_gmt] => 2013-06-27 22:05:14 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=117865 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [5] => stdClass Object ( [ID] => 117929 [post_author] => 16 [post_date] => 2013-05-14 18:53:05 [post_date_gmt] => 2013-05-14 21:53:05 [post_content] => Publié en février 2011 [caption id="attachment_117932" align="alignright" width="281"]Cube métallique : arrangement en 3D des atomes de nickel à température ambiante Cube métallique : arrangement en 3D des atomes de nickel à température ambiante[/caption] Physiciens de l’Université de São Paulo (USP), Sueli Hatsumi Masunaga et Renato de Figueiredo Jardim ont développé une stratégie relativement simple pour mesurer un phénomène qui affecte le stockage et la transmission d'informations enregistrées sur des supports magnétiques tel que le disque dur (HD) des ordinateurs. Si ce type d'évaluation des caractéristiques du matériel composant la mémoire magnétique des ordinateurs s'avère commercialisable, on pourra envisager de produire – avec le même matériel que celui utilisé actuellement – des disques durs d'une capacité de stockage jusqu'à cinq fois supérieure à celle d'aujourd'hui. Le disque dur d'un ordinateur ordinaire enregistre les informations sur des films de petites particules magnétiques de cobalt (Co), chrome (Cr) et platine (Pt), recouverts d'un matériel isolant. On estime qu’il stocke 200 gigabytes de données sur une superficie comparable à celle d'une boîte d'allumettes. Pour Jardin, directeur de l'Institut de Physique (IF) de l’USP, « en cas de fabrication optimum de ce composant, la même superficie serait capable d'abriter un téraoctet ». L'augmentation du pouvoir de stockage de ce matériel, dont la composition et la capacité exactes ne sont habituellement pas diffusées par l'industrie, dépend du contrôle de l'influence qu'exercent les nanoparticules les unes sur les autres – un phénomène du monde atomique nommé interaction dipolaire parce que les nanoparticules se comportent comme de minuscules aimants (dipôles magnétiques). D'après Masunaga, « cette interaction augmente en intensité avec la réduction de l'espace entre les particules, et elle se produit même à des distances considérées grandes dans le monde nanométrique ». Lorsque l'on appuie sur la touche « Entrée » d'un ordinateur pour enregistrer un fichier de texte, par exemple, une petite bobine (tête de lecture) qui flotte à des dixièmes de millionièmes de millimètres du disque dur convertit les signaux électriques en magnétiques et oriente le champ magnétique des nanoparticules dans un certain sens ou dans le sens contraire, à 180 degrés. L’orientation de ce champ magnétique (imaginez une flèche pointée vers le haut ou vers le bas) fonctionne comme une unité d’information : le bit, représenté par les nombres 0 et 1. En actionnant la commande de sauvegarde de l’information, une longue suite de 0 et de 1 est codifiée dans l’orientation magnétique des nanoparticules ; et elle ne se modifie pas quand l’appareil est éteint. Augmenter la capacité de stockage de ce type de mémoire créée dans les années 1950 par IBM exige l’installation d’un nombre plus grand de particules magnétiques sur une même superficie. Mais certains facteurs comme l’interaction dipolaire par exemple rendent l’opération difficile. Au fur et à mesure que les nanoparticules deviennent plus proches, les champs magnétiques qu'elles génèrent interagissent entre eux jusqu'à, selon la distance, provoquer l’inversion de sens de ces particules – ou, comme disent les physiciens, elles « flipent ». Et dans ce cas « fliper » est synonyme d'instabilité, ce qui n'est pas souhaitable pour stocker des informations. Jardim et Masunaga ont proposé en janvier 2011 dans l’Applied Physics Letters une manière de contourner le problème : utiliser deux ensembles de caractéristiques du matériel pour estimer à partir de quel point l’interaction dipolaire devient importante. D’ordre structurel, le premier ensemble prend en compte la taille des particules et la distance qu’il y a entre elles. L’autre mesure est la susceptibilité magnétique, c’est-à-dire la réponse du matériel à un champ magnétique. Les deux chercheurs ont élaboré cette stratégie après avoir analysé le comportement d’un matériel contenant des nanoparticules de nickel synthétisées par Masunaga – partie d’un projet thématique de la FAPESP coordonné par le physicien Reginaldo Muccillo. Naturellement magnétique à la température ambiante au même titre que le fer (Fe) et le cobalt (Co), le nickel (Ni) est un métal modèle pour l’étude des propriétés magnétiques. Au laboratoire, Masunaga a mélangé un acide (citrique), un alcool (éthylène glycol) et un sel (nitrate de nickel). Le mélange liquide a été maintenu à 80ºC jusqu’à ce qu’il se transforme en gel, puis chauffé pendant trois heures à une température de 300ºC. La résine qui s’est formée a été triturée et à nouveau chauffée, mais cette fois dans une atmosphère d’azote pour éliminer les impuretés. Le résultat fut la formation de nanoparticules sphériques de nickel immergées dans une matrice de carbone et d’oxyde de silicium. Avec en moyenne cinq nanomètres de diamètre, chaque nanoparticule est en réalité un agglomérat de près de 6 000 atomes disposés en forme de cubes et qui se comporte comme s’il s’agissait d’un seul dipôle. Interaction En augmentant la concentration de nickel, qui a varié de 1,9 % à 12,8 % de la masse du composé, Masunaga a constaté au microscope électronique que la distance entre les nanoparticules était passée de 21 à 11 nanomètres. Parallèlement, la susceptibilité magnétique a révélé une plus grande interaction entre les particules. À partir d’une certaine distance, la susceptibilité magnétique a cessé d’être décrite de la manière attendue pour des particules indépendantes, signifiant ainsi que les champs magnétiques des nanoparticules commençaient à interférer les uns sur les autres. « L’interaction dipolaire est devenue importante à des distances inférieures à 14 nanomètres », indique Masunaga. La chercheuse a décrit ces résultats dans un article de la Physical Review B de 2009 et dans un autre à paraître dans le Journal of Applied Physics. Un disque dur contenant des nanoparticules si proches entre elles se comporterait comme une mémoire atteinte d’Alzheimer : elle pourrait perdre l’information aussitôt après l’avoir acquise. D’après Jardim, « cette caractéristique qui rend le matériel inadéquat pour stocker des données peut être intéressant pour des phénomènes n’exigeant pas la préservation de l’état, comme la transmission de l’information ». Il pense que la stratégie peut être appliquée à tout matériel et éveiller ainsi l’intérêt de l’industrie : « La méthode pourrait être adoptée en tant que protocole pour contrôler la construction de mémoires magnétiques d’ordinateur et pour tester leur qualité ». LE PROJET Étude de phénomènes intergranulaires sur des matériaux céramiques – nº 2005/53241-9 MODALITÉ Projet Thématique COORDONNATEUR Reginaldo Muccillo – Ipen/SP INVESTISSEMENT 945 914,22 réaux (FAPESP) Article scientifique MASUNAGA, S.H. et al. « Increase in the magnitude of the energy barrier distribution in Ni nanoparticles due to dipolar interactions ». Applied Physics Letters. v. 89. Janv. 2011. [post_title] => Voisinage actif [post_excerpt] => Voisinage actif [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => voisinage-actif [to_ping] => [pinged] => [post_modified] => 2013-05-14 18:54:44 [post_modified_gmt] => 2013-05-14 21:54:44 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=117929 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) ) [technologie] => Array ( [0] => stdClass Object ( [ID] => 117940 [post_author] => 10 [post_date] => 2013-05-14 19:10:28 [post_date_gmt] => 2013-05-14 22:10:28 [post_content] => Publié en avril 2011 Le sirop de canne à sucre, qui accompagne les pastéis (NT: rectangle de pâte salée garnie et frite) dans les foires, est un sérieux prétendant pour la production d’énergie électrique dans un petit boitier en plastique fonctionnant comme une batterie et destiné à alimenter des portables, des lecteurs MP3 ou même des notebooks. Le dispositif dans lequel les sucres du sirop de canne agissent comme un combustible et appelé bio-batterie, est l’une des découvertes récentes les plus prometteuses dans le domaine des sources énergétiques alternatives. En 2007, l’entreprise Sony a présenté un de ces prototypes (il en existe plusieurs à travers le monde) pour faire fonctionner un petit lecteur de musique alimenté par du glucose. Outre les sucres, d’autres combustibles peuvent être utilisés comme l’éthanol, le méthanol et les eaux d’égout. La première démonstration avec du sirop de canne a été réalisée par un groupe de recherche de l’Université Fédérale de l’ABC (Ufabc), à Santo André, dans la région métropolitaine de São Paulo. La production d’électricité réalisée en laboratoire à partir de ce sirop de canne a été rendue possible grâce à la synthèse d’une enzyme qui potentialise la réaction chimique qui convertit le sucre en électricité. Les bio-batteries à combustible ont acquis une importance scientifique et technologique croissante au cours de ces dernières années. Depuis le début des années 90, les recherches publiées dans des revues scientifiques sont passées de 5 articles en 1989 à 240 en 2010, selon un inventaire réalisé par le professeur Adalgisa de Andrade, du département de Chimie de la Faculté de Philosophie, de Sciences et de Lettres de Ribeirão Preto, à l’Université de São Paulo (USP). Les recherches sont normalement menées en partenariat avec différentes institutions. À titre d’exemple, Adalgisa de Andrade qui développe des bio-batteries utilisant l’éthanol comme combustible, maintient une collaboration avec le professeur Chelley Minteer, de l’Université de l’Utah aux États-Unis qui coordonne un groupe ayant déjà réalisé différents travaux dans ce domaine. Frank Nelson Crespilho, coordonnateur du groupe sur les Matériaux et les Méthodes Avancées de l’UFABC, utilise du sirop de canne dans ses bio-batteries et développe des partenariats avec l’Université de Corée du Sud, l’Université de Grenoble en France, et avec l’Institut National des Sciences et de la Technologie de l’Électronique Organique (Ineo) à l’Université Fédérale du Piauí. Un des points d’attention de ces études liées aux bio-batteries à combustible concerne la puissance qui est encore faible et qui freine sa commercialisation. La recherche menée à l’UFABC avec du sirop de canne et la nouvelle enzyme, permet d’obtenir 60 milliwatts (mW) par centimètre carré (cm2) avec une tension de 0,39 volt (V), ce qui représente 26% du voltage d’une pile de type AAA de 1,5 V. « Le voltage peut être augmenté grâce à plusieurs batteries fonctionnant en série », affirme le professeur Frank Crespilho, coordonnateur de l’étude. C’est la formule trouvée par Sony dans son prototype qui a produit 1,5 milliwatt par cm2 et 0,8 V au total. L’expérience de l’entreprise a reçu le soutien scientifique du professeur Kenji Kano de l’Université de Kyoto, au Japon. La course technologique actuelle vise justement à augmenter la puissance et la durée de fonctionnement de ces équipements qui atteignent déjà plus de10 heures. D’autres aspects des études concernent la création d’énergie à partir des eaux d’égout, en retirant les électrons de la matière organique, et également la miniaturisation qui permettra d’implanter ces batteries dans le propre organisme humain. Dans ce cas là, le combustible sera le propre glucose du sang et non plus le sirop de canne. « L’un des enjeux actuels dans le domaine des bio-batteries à combustible est de les orienter vers les micropuces et de créer une micro- bio-batterie ou une nano-bio-batterie implantable pour fonctionner comme une batterie de stimulateur cardiaque, pour libérer des médicaments dans l’organisme ou pour détecter les niveaux de glucose », déclare le professeur Frank Crespilho qui, à 32 ans, est également chef de la Division de la Propriété Intellectuelle du Noyau d’Innovation Technologique de l’UFABC. Frank Crespilho et son équipe ont développé un logiciel qui mesure les courants très faibles des bio-batteries et ont acheté, grâce à un financement de la FAPESP, un équipement pour éliminer les bruits émis par les câbles des appareils électroniques et pour traiter les signaux de l’environnement. Haute efficacité Les bio-batteries fonctionnent comme une batterie normale en convertissant l’énergie chimique en électricité de la même manière que les cellules à combustible qui produisent de l’électricité et dont l’hydrogène est le principal combustible (équipements déjà fabriqués sur commande par certaines entreprises, y compris au Brésil). Il s’agit d’équipements qui normalement fournissent plus de cinq kilowatts de puissance, ce qui est suffisant pour fournir en électricité une maison confortable pour quatre personnes. À l’exemple de leurs aînées, les bio-batteries à combustible, qui en sont encore au niveau de la recherche scientifique et technologique, sont un gage de production d’énergie électrique alternative car elles possèdent une haute efficacité énergétique en n’utilisant que peu de combustible durant la conversion d’énergie par rapport aux moteurs à essence ou diesel, par exemple. Tout ceci de manière silencieuse et sans émettre de grandes quantités de gaz ou de déchets polluants. L’avantage perceptible de ces petits appareils est leur côté biologique, présent dans les catalyseurs, d’origine organique, produit avec des enzymes ou des microorganismes. Ces derniers promeuvent la réaction chimique nécessaire à la production d’électricité au lieu d’utiliser, par exemple, du platine qui est très onéreux, comme dans les cellules à combustibles. L’équipe cordonnée par Franck Crespilho est donc parvenue à mettre au point une enzyme synthétisée sous la forme d’un composite formé de nanostructures d'oxy-hydroxides de fer et d’un polymère organique appelé poly-diallyl-diméthyl-ammonium (PDAC), qui sont appliqués sur une cathode, l’un des pôles d’un système électrolytique, comme une batterie qui produit ou laisse passer le flux d’électrons extrait dans ce cas là des sucres du sirop de canne, sur le côté anode (voir illustration). L’utilisation de polyamide dans la structure de la molécule est un avantage supplémentaire découvert par le groupe car il s’agit d’un produit bon marché qui a été choisi pratiquement par hasard lors d’une visite dans une fabrique de plastiques à Santo André. Pour comprendre cette étude bio-électrochimique, qui, avec l’adoption de composés nanotechnologique s’appelle désormais étude nano bio électrochimique, il faut rappeler que les cellules à combustible (et même les organiques) ont besoin d’éléments oxydants et réducteurs pour perdre et gagner des électrons. Une membrane polymérique appelée membrane d’échange de protons est installée dans les cellules et prise en sandwich entre les côtés anode et cathode de la bio-batterie. Comme le courant est continu, le flux d’électrons passe de l’autre côté et est reçu par l’autre pôle. Les atomes sans électrons, les protons, passent uniquement sur la membrane. Franck Crespilho étudie également des bio-batteries sans membranes entre les deux pôles. « Nous en avons produit une de ce type dans laquelle les électrodes sont plongées dans une solution de glucose, d’eau et de peroxyde d’hydrogène (H2O2), plus connu sous le nom d’eau oxygénée, plus deux types d’enzyme, un glucose oxydase et notre enzyme possédant des nanoparticules d’oxyde de fer. « La bio-batterie s’est montrée efficace avec une vitesse de réaction électrochimique plus élevée que d’autres bio-batteries décrites dans des publications », déclare Franck Crespilho. « L’enzyme synthétique que nous avons mis au point imite un mécanisme naturel d’enzymes de la classe des peroxydases. Ainsi, alors que les électrons sont extraits des sucres pour l’anode, d’autres électrons sont injectés sur la cathode et l’enzyme accélère la rupture des molécules de peroxyde d’hydrogène. » D’après les chercheurs, l’enzyme biomimétique est moins chère, plus stable et plus efficace que les naturelles. Le travail développé par le doctorant Marcus Victor Martins consiste à envelopper l’oxyde de fer avec une couche du polymère organique synthétisée sous la forme d’aiguilles. L’enzyme stabilisée sur une électrode contenant des fibres de tissu de carbone est plongée dans un milieu salin avec le sirop de canne et d’autres additifs qui composent l’environnement naturel de l’enzyme. La principale difficulté est de la maintenir stable durant plus de 10 heures. Si l’enzyme se dégrade, le courant chute », déclare Franck Crespilho, qui est à la tête du groupe depuis trois ans dans l’Université inaugurée il y a cinq ans. Sans perturber Les expériences menées par le groupe de Franck Crespilho ont également trouvé une autre application possible dans le monde des bio-batteries grâce à l’utilisation de microorganismes comme la levure Saccharomyces cerevisiae, la même qui agit dans la fermentation de l’éthanol, du pain et de la bière. « Ils digèrent le sucre », observe Franck Crespilho. « La principale difficulté est d’extraire des électrons sans perturber ou tuer la levure Saccharomyces ». Grâce à une série de stratagèmes chimiques, les chercheurs sont parvenus à maintenir l’organisme et à produire de l’électricité stabilisant celui-ci sur une électrode de carbone. Selon la littérature scientifique, plus de 20 microorganismes, principalement des bactéries, ont été utilisés avec succès dans des expériences sur des bio-batteries. L’utilisation d’électrodes avec des microorganismes n’appartient pas au domaine d’étude du professeur Adalgisa de Andrade, de l’USP de Ribeirão Preto, qui a écrit un article dans lequel elle résume les activités liées aux bio-batteries enzymatiques dans le monde en 2010. Elle a mis au point des bio-batteries qui utilisent l’éthanol comme combustible. Elles sont composées d’enzymes qui cassent cet alcool comme les déshydrogénases trouvées également dans le foie et qui servent à la digestion des boissons alcooliques. Le résultat le plus récent du groupe qu’elle dirige est la mise au point d’anodes avec des nanostructures stabilisées, contenant des polymères organiques et des déshydrogénases plus stables et qui fonctionnent jusqu’à 90 jours. « Nous avons mélangé des enzymes et des polymères et nous les avons placés sur la surface du carbone préparée pour recevoir des électrons, orientant également ces couches pour que l’électrode devienne plus stable et qu’elle acquière une plus grande puissance », déclare le professeur Adalgisa de Andrade, qui a reçu le soutien de la post-doctorante Juliane Forti dans ses travaux. Grâce à ces nouveaux arrangements, son groupe est parvenu à faire fonctionner une bio-batterie avec de l’éthanol d’une puissance de 0,28 milliwatts par cm2. Le professeur Adalgisa de Andrade et Frank Crespilho font partie d’un groupe spécial de chercheurs héritier des études menées sur le développement des bio-batteries par le professeur Michael Potter, de l’Université de Durham au Royaume-Uni, qui a découvert que des bactéries Escherichia coli pouvaient produire de l’électricité dans un substrat organique, en 1912. La première bio-batterie n’utilisant que des enzymes n’a été présentée que 50 ans plus tard, en 1964, par un groupe de chercheurs étasuniens de l’entreprise Space-General Corporation, en Californie. Un long chemin a été déjà parcouru et il pourra déboucher dans quelques années sur une nouvelle alternative énergétique. LES PROJETS 1. Interaction entre des bio-batteries et des systèmes cellulaires avec des nanostructures OD, 1D, 2D utilisant des méthodes électrochimiques n. 2009/15558-1 2. Mise au point d’une bio-batterie à combustible utilisant des enzymes d’alcool déshydrogénase stabilisées par auto-montage n. 2008/05124-1 MODALITÉ 1 et 2 – Soutien régulier au projet de Recherche COORDONNATEURS 1. Frank Nelson Crespilho – UFABC 2. Adalgisa Rodrigues De Andrade – USP INVESTISSEMENT 1. 92.262,80 réaux et 50.821,57 US$ (FAPESP) 2. 73.622,30 réaux et 29.031,76 US$ (FAPESP) Articles scientifiques 1. Martins, M.V.A.; Bonfim, C.; Silva, W.C.; Crespilho, F.N. Iron (III) nanocomposites for enzyme-less biomimetic cathode: A promising material for use in biofuel cells. Electrochemistry Communications. v.12, n.11, p. 1.509-12. 2010. 2. Aquino Neto, S.; Forti, J.C.; Zucolotto, V.; Ciancaglini, P.; De Andrade, A. R. Development of nanostructured bioanodes containing dendrimers and dehydrogenases enzymes for application in ethanol biofuel cells. Biosensors and Bioelectronics. v. 26, p. 2.922-26. 2011. [post_title] => Du sirop de canne à sucre dans des bio-batteries [post_excerpt] => Du sirop de canne à sucre dans des bio-batteries [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => du-sirop-de-canne-a-sucre-dans-des-bio-batteries [to_ping] => [pinged] => [post_modified] => 2013-05-15 12:45:03 [post_modified_gmt] => 2013-05-15 15:45:03 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=117940 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [1] => stdClass Object ( [ID] => 117994 [post_author] => 10 [post_date] => 2013-05-15 13:14:52 [post_date_gmt] => 2013-05-15 16:14:52 [post_content] => Publié en Août 2011 Réunir des microalgues et de la vinasse pour produire du biodiesel est le défi relevé par l’entreprise pauliste Algae Biotecnologia. La nouveauté réside dans l’utilisation de vinasse car la production de biodiesel à partir d’algues a déjà été réalisée par certaines entreprises étasuniennes. Le résidu de la production d’éthanol se caractérise non seulement par la mauvaise odeur qu’il dégagé mais également pour le fait d’être riche en sels minéraux, principalement du potassium, et de posséder des teneurs élevées en matières organiques d’une grande acidité. Dans les années 70, la vinasse est devenue la bête noire du Proálcool, programme gouvernemental visant à utiliser l’éthanol comme carburant. Ce résidu, jeté comme des eaux usées dans les fleuves et les lacs, a tué des poissons, pollué l’eau et atteint la nappe phréatique de certaines localités. Des normes et une législation spécifique fédérale et des états ont été élaborées à partir de 1978, par la Compagnie de Technologie d’ Assainissement Environnemental (Cetesb) de l’État de São Paulo, et ont contraint les producteurs à traiter les résidus d’une manière écologiquement correcte et commercialement intéressante. La solution a été de les utiliser comme engrais dans leur propre plantation de canne à sucre. Depuis lors, la vinasse est répandue par des tuyaux d’irrigation dans un processus appelé ferti-irrigation ou transportée en camion pour une application directe dans les champs. Ces habitudes sont déjà fortement implantées dans l’industrie du sucre et de l’éthanol mais le volume de résidus augmente de manière effarante car environ 10 litres de vinasse sont produites pour chaque litre d’éthanol. 250 milliards de litres de vinasse ont été produits en 2010 après distillation du vin obtenu dans le processus de fermentation du sirop de canne. Ce volume impose des alternatives et d’autres types d’usage outre la fertilisation. À l’inverse des usages visant à une production d’éthanol plus rentable dans certaines grandes propriétés qui ont de gros frais de transport de vinasse, un nouveau processus est apparu visant à réduire la quantité de résidu en augmentant la teneur alcoolique dans la phase de fermentation et mis au point par l’entreprise Fermentec, de Piracicaba, dans l’intérieur pauliste. «Grâce à cette augmentation, il est possible de réduire de moitié la production de vinasse», déclare l’ingénieur agronome Henrique Amorim, associé de l’entreprise Fermentec et professeur retraité de l’Ecole Supérieure d’Agriculture Luiz de Queiroz (Esalq) de l’Université de São Paulo (USP). Malgré la diminution du volume de vinasse, plus de160 milliards de litres par an seront encore excédentaires. Cette matière première pourra être utilisée pour la production d’huile de microalgues destinée à la fabrication du biodiesel. Ce procédé a déjà montré son efficacité dans les laboratoires d’Algae. « Nous avons déjà obtenu de bons résultats et l’enjeu actuel est de réaliser une planification de la production d’huiles dans des usines pilotes jusqu’en 2012 et ensuite de réaliser des tests dans une usine entre 2013 et 2014 », dit Sergio Goldemberg, directeur technique de l’entreprise. L’huile est extraite de la biomasse qui se forme grâce à la multiplication des microalgues cultivées dans la vinasse. Les microalgues consomment les nutriments du liquide et se développent. Certaines espèces doublent leur population en un seul jour. Pour extraire l’huile, il faut utiliser un système de centrifugation qui sépare les lipides (graisses) de la biomasse. Le matériel passe ensuite par un séchoir et l’huile est extraite à travers des procédés mécaniques ou chimiques. La teneur en lipides de la biomasse de microalgues atteint 30% contre 18% pour le soja ou encore 40% pour le Jatropha. Les microalgues possèdent un autre grand avantage. La productivité peut s’élever à 40 mille kilos d’huile par hectare (kg/ha), alors que le soja atteint 3 mille kg/ha et le Jatropha, 3,5 mille kg/ha. L’autre avantage des microalgues est que le CO2 émis par les usines durant la fermentation et qui est absorbé par la propre plantation de canne, peut être utilisé pour la production de biomasse car ces microorganismes ont besoin de CO2 pour se multiplier. La protéine résiduelle de ce processus peut être utilisée dans des rations pour la pisciculture, ce qui représente un gain supplémentaire pour les producteurs. Pour produire du biodiesel, tout type d’algue, y compris celui des microalgues, passe par un processus de transestérification qui est une réaction chimique entre un type d’alcool (méthanol ou éthanol) et un lipide et qui produit du biodiesel. Le bon choix Sergio Goldemberg explique que les chercheurs sont maintenant engagés dans un projet visant à développer des études et à trouver des solutions pour une meilleure efficacité de tout le système. La recherche commence par le choix des microalgues ou cyanobactéries qui ressemblent à des algues. « Nous menons des recherches sur différentes espèces, principalement celles qui vivent en eau douce », déclare Sergio Goldemberg. « Nous réalisons ensuite une sélection pour savoir quelles sont celles qui s’adapteront le mieux à la vinasse et qui produiront une biomasse microbienne avec un contenu élevé en lipides », déclare le professeur Reinaldo Bastos, du Centre des Sciences Agraires de le ville d’Araras, de l’Université Fédérale de São Carlos (UFSCar), partenaire dans les recherches de l’Algae, avec un groupe dirigé par le professeur Eduardo Jacob-Lopes, de l’Université Fédérale de Santa Maria, dans l’État du Rio Grande do Sul. «Nous avons déjà sélectionné environ 20 espèces, la plupart prélevées dans l’environnement et elles sont en train d’être testées dans des cultures avec de la vinasse», déclare Reinaldo Bastos. La vinasse fonctionne comme un milieu de culture pour la croissance et la multiplication des microalgues. Dans des expériences menées dans d’autres pays, principalement aux États-Unis, les entreprises qui cultivent les algues doivent rajouter des sels minéraux et des nutriments à l’eau dans le processus productif. « Nous avons un avantage par rapport à eux car nous avons un résidu réellement économique pour la production », affirme Reinaldo Goldemberg. Il y a différentes entreprises aux États-Unis qui utilisent des algues pour produire des biocarburants, y compris du biokérosène pour l’aviation, bien que cela ne soit pas encore produit à une échelle commerciale. Il y a l’entreprise Solazyme, financée par le géant Chevron dans le domaine du pétrole et de l’énergie, Algenol, partenaire de l’entreprise Dow et Sapphire, financée par Cascade, entreprise de Bill Gates ainsi que la Fondation Rockefeller. Les trois entreprises reçoivent également un financement du Département de l’Énergie étasunien. Les premières études sur l’utilisation des algues dans la production de biocarburants ont commencé en 1980 au National Renewable Energy Laboratory (NREL), étasunien. « Mais à l’époque, les problèmes énergétiques et les excès de CO2 n’étaient pas considérés comme importants », affirme Reinaldo Goldemberg, ingénieur agronome qui a déjà travaillé avec de la vinasse dans des usines d’éthanol avant de monter l’Algae. La vague de projets, principalement étasuniens avec un soutien gouvernemental, a débuté dans les années 2000. « Nous aurions pu répliquer ce qui se fait à l’étranger, bien qu’il n’y ait pas encore de produits destinés à la vente, mais nous avons décidé de développer nos propres idées et de suivre une nouvelle voie avec la vinasse », déclare Reinaldo Goldemberg, fils de José Goldemberg professeur de l’Université de São Paulo (USP), ancien ministre de l’éducation et ancien Secrétaire d’État à l’Environnement de l’État de São Paulo. L’Algae reçoit un financement pour la recherche de l’ordre de 2,5 millions de réaux du bailleur de fonds d’Étude et de Projets (Finep), au sein d’un projet du Programme Subvention Économique. Elle reçoit également un second financement de la Banque Nationale de Développement Économique et Social (BNDES), du Fonds de Technologie (Funtec), en partenariat avec l’UFSCar, pour un montant de 3,2 millions de réaux versé sur trois ans, qui a également reçu 400 mille réaux de l’entreprise. Algae a été créée en 2007 et depuis 2009 est une joint-venture du groupe Ecogeo, conglomérat d’entreprises travaillant dans le domaine du conseil et de l’ingénierie environnementale et dont le chiffre d’affaires s’est élevé à 50 millions de réaux en 2010. Levure alcoolique La production de biodiesel à partir de la vinasse peut également éviter de nombreux frais pour le producteur d’éthanol qui a besoin de pomper ou de transporter sur de longues distances ce résidu transformé en engrais, outre le fait d’obtenir de nouveaux gains avec le produit final. La proposition de l’entreprise Fermentec de réduire la production de vinasse de moitié peut être une source d’économie pour les usiniers. «La transporter jusqu’à 35 kilomètres de distance du local de production de la vinasse couvre les coûts de l’engrais, principalement du chlorate de potassium, qui est en grande partie importé. « Au-delà de cette distance, il y a des pertes financières », déclare Amorim, de Fermentec. L’objectif de l’entreprise est d’augmenter à 16% la teneur alcoolique en fin de fermentation, qui est en moyenne de 8%, phase dans laquelle les levures de l’espèce Saccharomyces cerevisiae se chargent de transformer le sucre en alcool. Ce dernier est ensuite séparé de la vinasse dans la phase de distillation. L’entreprise, dont le chiffre d’affaires s’élève à 10 millions de réaux par an, sélectionne des lignées de Saccharomyces depuis 1990 et fournit environ 80% des levures utilisées dans les usines du pays. Depuis six ans elle développe des études liées à la température dans le processus de fermentation et principalement dans la sélection de ces microorganismes. À cet effet, elle a réuni des chercheurs comme les professeurs Luiz Carlos Basso et Márcio de Castro Silva Filho de l’Esalq, de Pio Colepicolo de l’Institut de Chimie de l’USP et de Boris Stambuck, de l’Université Fédérale de l’État de Santa Catarina. Une étude a été réalisée, sous la coordination de Silva Filho et le financement du Conseil National de Développement Scientifique et Technologique (CNPq), pour comprendre comment les levures s’adaptent à la teneur alcoolique élevée de la fermentation. Après l’analyse des 6 mille gènes de ces levures, il a été possible de détecter ceux liés à la capacité de l’organisme de se maintenir viable dans une teneur alcoolique élevée. « Nous avons déjà identifié une série de gènes et à long terme nous pourrons introduire ou moduler l’expression de ces gènes dans des lignées de levure », déclare Silva Filho. Pour sélectionner de nouvelles levures qui agissent à une teneur alcoolique élevée, Fermentec a, en 2009, sollicité un projet du Programme de Recherche d’Innovation en Petites Entreprises (Pipe) de la FAPESP. « Nous voulons trouver de meilleures levures que les actuelles et qui puissent agir dans 18% de teneur alcoolique pour l’utilisation du nouveau processus de fermentation », affirme Amorim. Une étude a été menée avec succès dans l’usine da Pedra, dans la commune pauliste de Serrana. Avec une fermentation réalisée à 16%, il a été possible d’évaluer l’économie qui serait réalisée avec de la vinasse et qui se chiffrerait à 7 millions de réaux par récolte. « Nous sommes déjà prêts à commercialiser le procédé », affirme Amorim. LE PROJET Sélection de levures tolérantes dans des processus de fermentation avec une teneur alcoolique élevée visant à la réduction de la vinasse et à l’économie d’énergie– nº 09/52427-2 MODALITÉ Recherche d’Innovation en Petites Entreprises (Pipe) COORDONNATEUR Henrique Amorim – Fermentec INVESTISSEMENT 202.923,42 réaux et 135.310,28 US$ (FAPESP) [post_title] => Vinasse alternative [post_excerpt] => Vinasse alternative [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => vinasse-alternative [to_ping] => [pinged] => [post_modified] => 2013-05-15 18:14:36 [post_modified_gmt] => 2013-05-15 21:14:36 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=117994 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [2] => stdClass Object ( [ID] => 118009 [post_author] => 11 [post_date] => 2013-05-15 15:14:31 [post_date_gmt] => 2013-05-15 18:14:31 [post_content] => Publié en juillet 2011 Avec une capacité de production s’élevant à 20 millions de doses, la fabrique de vaccins contre la grippe de l’Institut Butantan a commencé à fonctionner pleinement au mois de mars et devra permettre au Brésil d’être autosuffisant en matière de prévention contre le virus influenza pour les personnes âgées en 2012. Le Brésil pourra même devenir, d’ici trois à cinq ans, exportateur de vaccins contre la grippe. Deux procédés développés par les chercheurs de l’Institut Butantan promettent d’augmenter la production sans avoir besoin d’agrandir la fabrique qui avait été inaugurée en 2007. Ces procédés n’ont été validés que récemment ainsi que la possibilité d’acquérir davantage de matière première (chaque dose requiert l’utilisation d’un œuf de poule fécondé pour la reproduction du virus ce qui rend la fabrique consommatrice de 20 millions d’œufs par an). Un des procédés permet d’isoler le virus entier avec toutes les protéines qu’il contient. Actuellement le vaccin contre l’influenza utilise le virus d’une protéine, l’hémaglutinine A. Les autres protéines sont écartées bien qu’offrant également une protection et subissant moins de mutation que l’hémaglutinine A. «Quand nous avons produit ce nouveau vaccin, nous avons découvert que la production par œuf augmentait de deux à sept fois selon le sérotype do virus»”, déclare Isaias Raw, chercheur à l’Institut Butantan. Le deuxième procédé, déjà breveté par l’Institut, est parvenu à isoler une substance adjuvante, le mono-phosphoré lipidique (MPLA), qui intensifie la réaction immunologique de l’organisme en stimulant la production appropriée d’anticorps ou de lymphocytes. D’autres substances de ce type ont déjà été créées mais elles sont onéreuses ou ne sont pas accessibles. le MPLA, curieusement, est un sous-produit d’une autre ligne de recherche de l’Institut Butantan qui concerne le développement d’un nouveau type de vaccin contre la coqueluche et considéré plus sûr grâce à l’enlèvement du lipopolysaccharide (LPS) de la bactérie qui provoquait des réactions inflammatoires et toxiques. « Nous avons converti des kilos de LPS en MPLA, qui en petites quantités permet d’augmenter la réponse des différents vaccins et ainsi de les utiliser en dosages plus faibles», déclare Isaias Raw. Des tests sur des souris ont montré que le MPLA permet de se protéger de l’influenza en utilisant un quart de la dose actuelle. L’effet a déjà été démontré sur des êtres humains. La substance est actuellement testée sur diverses maladies. L’Institut Butantan a démontré que le MPLA avait du potentiel dans des vaccins contre la leishmaniose chez les chiens, rompant ainsi un lien de transmission qui peut être mortel chez l’homme. Il fait également l’objet de recherches à l’Institut Ludwig de New-York, pour potentialiser l’effet d’un vaccin contre le cancer de l’ovaire, et d’un groupe de chercheur de Ribeirão Preto pour un vaccin contre la tuberculose. «Cette substance sera également testée brièvement comme vaccin contre l’hépatite B qui est actuellement inefficace pour les personnes âgées de plus de 50 ans qui attendent une greffe de foie ou de reins», déclare Isaias Raw. Le MPLA, en augmentant la réponse immunologique, le rend également moins spécifique. Il y a déjà eu des cas où un vaccin contre la grippe a également permis d’immuniser le patient contre d’autres sérotypes. Le MPLA est bon marché. «Nous pouvons produire du MPLA pour 1 milliard de doses au prix coutant d’un centime. Ceci permettrait au Brésil de se protéger de la pression des grandes entreprises qui ne veulent pas vendre l’adjuvant mais le vaccin complet», affirme le chercheur. Les résultats, qui dépendront de nouveaux essais cliniques avant de déboucher sur une ligne de production, ont été publiés dans la revue Vaccine dans un article signé par Raw, Cosue Miyaki, Wagner Quintilio et Eliane Miyaji, entre autres chercheurs de l’Institut Butantan. «Les recherches en laboratoire ne s’arrêteront pas avec la publication de cet article et elles continueront en visant la production de vaccins au bénéfice de la population», déclare Isaias Raw. [caption id="attachment_118016" align="alignright" width="300"]La production de vaccin se base sur l´utilisation d´oeufs fécondés La production de vaccin se base sur l´utilisation d´oeufs fécondés[/caption] L’Institut Butantan estime que les deux procédés sont capables d’augmenter la capacité de production de la fabrique du vaccin contre l’influenza en qui passerait de 20 millions à 160 millions de doses. Une telle croissance, outre la réalisation de tests cliniques, dépendra naturellement des conditions du marché qui a énormément varié ces dernières années. La fabrique a été projetée en 2004 à l’époque de la menace de la grippe aviaire. Cette épidémie causée par le virus H5N1, a, en 2005, décimé des milliers d’oiseaux et même infecté certaines personnes au Vietnam, en Thaïlande, en Indonésie et au Cambodge. À cette époque, un ancien édifice de l’Institut Butantan a été transformé en laboratoire pilote pour débuter une production à petite échelle du vaccin. Simultanément, l’État de São Paulo a financé la construction de la fabrique et le Ministère de la Santé l’importation des équipements. Le procédé utilisé pour la production du vaccin a été remis par le laboratoire Charles Mérieux, actuellement Sanofi-Pasteur, et se base sur la reproduction du virus dans des œufs fécondés. Le scénario s’est radicalement transformé en 2009 avec l’apparition du virus H1N1, responsable de la grippe porcine. Il est apparu aux États-Unis et a infecté des milliers de mexicains et s’est rapidement transformé en pandémie. Les souches étaient identiques à celles de l’influenza de 1918 qui a provoqué la grippe espagnole et tué 40 millions de personnes. Les deux virus avaient une chose en commun, ils atteignaient principalement les jeunes, les enfants et les femmes enceintes qui, jusqu’alors, ne faisaient pas l’objet de campagnes de vaccination. La demande en vaccinations a été rapidement multipliée par 10. Actuellement l’Organisation Mondiale de la Santé (OMS) estime que l’alerte concernant la létalité du H1N1 a été surdimensionnée mais qu’elle a favorisé à l’époque une articulation en matière d’offre de vaccins. «L’OMS a ordonné la préparation d’un vaccin et l’a cédé aux producteurs, y compris à l’Institut Butantan. Il n’allait pas y avoir de vaccins pour tout le monde mais l’accord entre l’Institut Butantan et le laboratoire Sanofi a permis l’acquisition de vaccins fabriqués à l’étranger et de vacciner ainsi environ 80 millions de personnes», déclare Isaias Raw. Avant même d’appliquer ces nouveaux procédés, l’Institut Butantan entrevoit la possibilité d’exporter des vaccins contre la grippe dans les pays de l’hémisphère nord. La production actuelle de la fabrique a une forte saisonnalité. La fabrication commence vers le mois de septembre quand l’OMS définit quels sont les trois types de virus de la grippe les plus virulents au cours de cette période, et qu’il envoie les échantillons aux fabricants. Dans le cas de l’Institut Butantan, la production se concentre jusqu’au mois d’avril, quand la vaccination commence, et la fabrique interrompt ses activités le reste de l’année. «Nous pourrions produire un éventail de vaccins de l’hémisphère nord durant cette période d’inactivité que nous fournirions à la population vivant au dessus de l’équateur, tant au Brésil que dans des pays comme le Venezuela, la Colombie et les Guyanes», déclare Isaias Raw. «La vaccination est actuellement tardive et n’est pas vraiment efficace dans ces régions». Virus et embryon La fabrique a mis sept ans avant d’être prête car il a fallu surmonter une série d’étapes et d’obstacles. Outre les questions bureaucratiques liées au choix de l’entreprise de construction et à l’importation d’équipements spéciaux comme les ultracentrifugeuses, il a fallu également mettre au point une machine qui détruit ce qui reste des œufs après avoir séparé le liquide rempli de virus où baigne l’embryon. Ce matériel doit être réduit en poudre pour être transporté avec sécurité et incinéré pour ne pas servir d’aliment aux oiseaux ou à d’autres animaux car il suffirait de quelques virus vivants pour disséminer la maladie. «Il s’agit d’un processus très complexe qui utilise une technique spécifique pour injecter la souche du virus dans chaque œuf, pour séparer le suc du virus, le purifier et le repurifier et offrir un traitement écologiquement correct au matériel écarté», déclare Hernan Chaimovich, Surintendant de la Fondation Butantan. Comme le vaccin immunise contre trois types d’influenza, la production se concentre sur une souche à la fois. Avant de passer au prochain virus, la fabrique doit s’arrêter quelques jours et subir un processus rigoureux de désinfection. Le laboratoire Sanofi, qui accompagne la production des premiers lots, a attesté la conformité de la fabrique aux normes de la communauté européenne depuis cette année. Les investissements pour l’exécution du projet ont dépassé les 100 millions de réaux, avec des financements du gouvernement de l’État de São Paulo, du Ministère de la Santé et de la Fondation Butantan. Ces chiffres sont négligeables face aux millions de réaux d’économie réalisés par le Brésil en n’ayant pas besoin d’acheter le produit aux laboratoires internationaux», affirme Jorge Kalil, directeur Général de l’Institut Butantan, dans un article publié dans le journal Folha de S. Paulo. «Cette avancée technico-scientifique gigantesque nous permet d’être aujourd’hui le seul pays d’Amérique Latine à produire des vaccins contre l’influenza». Alliance globale La capacité de production de vaccins par des institutions publiques brésiliennes a attiré l’attention de la Fondation Bill et Melinda Gates, qui a également contacté d’autres institutions étrangères. L’année dernière, L’Institut Butantan a donc reçu la visite de Tachi Yamada, président du Programme de Santé Globale de la Fondation, intéressé par la capacité de production de l’institution pauliste. L’entité philanthropique du propriétaire de Microsoft cherche des partenaires pour produire des vaccins à bas prix qui seraient destinés aux pays en développement. Une proposition de collaboration a été récemment formalisée entre l’Institut Butantan, l’entreprise Serum Institute et l’Institut Bio-Manguinhos, de la Fondation Oswaldo Cruz (Fiocruz), à Rio. L’objectif de ce partenariat est la production d’environ 30 millions de doses d’un vaccin pentavalent contre la diphtérie, le tétanos, la coqueluche, l’hépatite B et l’hémophilie B (cause de méningite et autres maladies). L’Institut Butantan a remis une proposition concernant la fourniture de 100 millions de doses qui seraient livrées en 2014 au prix unitaire de 1,50 US$ et attend une réponse. L’articulation pour la recherche de nouveaux fournisseurs entre la fondation Bill et Melinda Gates et l’Alliance Globale pour les Vaccins et l’Immunisation (Gavi, sigle en anglais) a déjà produit des effets notables. Le mois dernier, quatre géants pharmaceutiques, GSK, Merck, Johnson & Johnson et Sanofi-Aventis, se sont mis d’accord pour vendre à Gavi des vaccins contre la diarrhée à prix coûtant. La réduction du prix est de 70%. En outre, deux entreprises indiennes, Serum Institute et Panacea Biotec, se sont engagées à fournir du vaccin pentavalent au prix de 1,75 US$ la dose. [post_title] => La multiplication des vaccins [post_excerpt] => La multiplication des vaccins [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => la-multiplication-des-vaccins [to_ping] => [pinged] => [post_modified] => 2013-05-15 15:22:19 [post_modified_gmt] => 2013-05-15 18:22:19 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=118009 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [3] => stdClass Object ( [ID] => 118021 [post_author] => 20 [post_date] => 2013-05-15 15:27:36 [post_date_gmt] => 2013-05-15 18:27:36 [post_content] => Publié en février 2011 [caption id="attachment_118025" align="aligncenter" width="580"]Éliminer les femelles à l’état larvaire est une stratégie qui commence à être testée Éliminer les femelles à l’état larvaire est une stratégie qui commence à être testée[/caption] Pour les animaux, l’acte sexuel est la voie qui permet de perpétuer l’espèce. Un objectif primordial qui est en train de s’inverser, du moins pour l’Aedes aegypti, le moustique transmetteur de la dengue. À travers la manipulation génétique, une population de mâles créée en laboratoire a reçu un gène modifié qui produit une protéine qui tue la progéniture issue du croisement avec des femelles normales vivant dans n’importe quel environnement. Cette stratégie peut amener à la suppression d’un grand nombre d’individus de cette espèce, à la réduction de la pulvérisation d’insecticides visant à éliminer les moustiques et par conséquent à la diminution de l’incidence de la maladie chez les êtres humains. Le premier lâcher dans la nature brésilienne de ces animaux génétiquement modifiés a été autorisé en décembre 2010 par la Commission Technique Nationale de Biosécurité (CTNBio). Le lignage transgénique de l’Aedes aegypti, développé par l’entreprise britannique Oxford Insect Tecnologies (Oxitec), devra être lâché à partir de ce mois dans la commune de Juazeiro, dans l’État de Bahia, par la biologiste Margareth Capurro, de l’Institut de Sciences Biomédicales (ICB) de l’Université de São Paulo (USP), en partenariat avec l’entreprise Moscamed Brésil, installée dans la même ville bahianaise. La dengue est l’un des principaux problèmes de santé publique au monde, spécialement dans les pays tropicaux comme le Brésil. Selon l’Organisation Mondiale de la Santé (OMS), 50 millions de personnes contractent la maladie chaque année, provoquant 550 000 hospitalisations et 20 000 décès. Aujourd’hui, la seule manière de la contrôler est d’éliminer son transmetteur, le moustique Aedes aegypti. Les insectes transgéniques développés par Oxitec pourront être une option pour réaliser cette tâche. Les mâles du lignage OX513A, selon la dénomination de l’entreprise, sont lâchés pour s’accoupler aux femelles sauvages. Les descendants de ces accouplements héritent de la protéine létale et meurent durant la phase larvaire ou de nymphe. Pour que leur production en laboratoire soit possible, ils ont été programmés pour survivre quand ils reçoivent l’antibiotique tétracycline. Sans cet antidote qui réprime la synthèse de la protéine létale, il n’y aurait pas de survivant à lâcher dans la nature. La souche transgénique contient un marqueur génétique fluorescent qui devient visible quand les larves sont exposées à une lumière ultraviolette. Ceci permet un plus grand contrôle de la qualité dans la production et de la dispersion sur le terrain. Le lâcher continu et en nombre suffisant de ces insectes génétiquement modifiés dans des environnements infestés, devrait avec le temps ramener la population de moustiques sauvages à un niveau en deçà du nécessaire pour transmettre la maladie. L’histoire du travail de Margareth Capurro sur ces moustiques a commencé au cours d’une rencontre fortuite, lors d’une conférence en 2007, avec le scientifique britannique Luke Alphey, de l’Université d’Oxford et fondateur d’Oxitec. Il lui a proposé de tester au Brésil les transgéniques qu’il avait développés. À cette époque, la chercheuse avait estimé que l’expérience ne serait pas possible en fonction des entraves légales et bureaucratiques. Peu de temps après, elle a changé d’avis et a décidé de réaliser l’expérience. Elle a alors sollicité l’autorisation de la CTNBio, responsable de la réglementation des transgéniques dans le pays, pour importer les insectes. « L’importation a été autorisée le 21 septembre 2009 », se rappelle Margareth Capurro. « Une semaine plus tard, nous avons reçu gratuitement d’Oxitec une enveloppe contenant 5 000 œufs ». La chercheuse a alors commencé à élever l’Aedes aegypti transgénique dans l’insectarium de son laboratoire à l’ICB. Mais avant d’être lâchés et testés dans la nature, ils devaient être élevés à une grande échelle. En outre, un local approprié et isolé serait également nécessaire, avec une incidence de moustiques sauvages propice à leur lâcher. L’ancien professeur de l’USP et fondateur de Moscamed, Aldo Malavasi, s’est alors proposé de produire les moustiques transgéniques dans sa bio-usine et a suggéré qu’ils soient lâchés sur place, dans des villages isolés de Juazeiro. Margareth Capurro a accepté cette proposition. Un accord a été signé entre l’entreprise et l’USP pour pouvoir la mettre en œuvre. Moscamed ne perçoit rien pour ce travail. «Avec ces tests nous gagnons en visibilité, en formation technique et dans le même temps nous avons la possibilité de contrôler ces insectes», déclare Aldo Malavasi. Son entreprise a de l’expérience dans l’élevage en masse d’insectes. Elle produit des mâles stériles par irradiation de cobalt sur la mouche méditerranéenne (Ceratitis capitata) et sur la lucilie bouchère (Cochliomyia hominivorax), qui sont lâchées dans des vergers de la région de Juazeiro et de Petrolina, dans l’État du Pernambouc, dans la vallée du São Francisco, pour concurrencer les mâles sauvages au cours de l’accouplement avec les femelles. Insectes en masse – Après l’accouplement, il n’y a plus de naissance de nouvelles mouches. Les populations de ces insectes diminuent ainsi avec le temps. « Comme nous élevons des insectes en masse depuis un certain temps, nous allons participer à cette expérience et utiliser l’infrastructure de Moscamed pour multiplier les moustiques transgéniques », explique Aldo Malavasi. «À cet effet, nous avons construit un laboratoire pour développer les transgéniques qui a déjà été approuvé par la CTNBio». L’équipe de Moscamed a choisi des endroits propices pour les tests de terrain dans la région semi-aride des alentours de Juazeiro. « Il s’agit de cinq endroits isolés, des plantations, des routes ou des zones dépeuplées ayant une incidence élevée d’Aedes aegypti », déclare Margareth Capurro. «Nous avons trouvé environ 300 larves du moustique dans un seul réservoir d’eau d’une résidence». La chercheuse cite les autres avantages offerts par les endroits choisis. « Comme Moscamed travaille déjà dans la région, la population locale est habituée au lâcher d’insectes dans l’environnement », explique-t-elle. « C’est pour cela qu’ils n’auront pas peur des insectes que nous allons lâcher ». Margareth Capurro tient en outre à souligner que seuls les moustiques mâles seront lâchés et qu’ils ne piquent pas ni ne transmettent la maladie. Avec l’autorisation de la CTNBio en main, le prochain pas sera la réalisation d’étude de propagation pour évaluer la taille des populations locales d’Aedes aegypti. Ceci est nécessaire pour calculer le nombre d’insectes transgéniques qui devront être lâchés. Margareth Capurro explique qu’il faut lâcher 5 à 10 moustiques transgéniques pour chaque mâle sauvage. La chercheuse ne s’attend pas à une réduction significative des populations sauvages dès le premier lâcher des insectes produits en laboratoire. « Pour que cela se produise, il faut que des insectes transgéniques soient lâchés au moins durant deux étés », explique-t-elle. À en juger par les résultats obtenus dans d’autres endroits du monde où les moustiques d’Oxitec ont été lâchés, il y a de bonnes chances de croire que l’expérience sera un succès au Brésil. Des tests réalisés l’année dernière aux îles Caïman, dans les Caraïbes, avec 3 millions de moustiques génétiquement modifiés ont montré une réduction de 80% de la population sauvage sur le lieu du lâcher. Des résultats identiques ont été obtenus en Malaisie. Ces résultats motivent d’autres pays à également réaliser des expériences avec les insectes transgéniques de l’entreprise britannique. Oxitec indique sur son site que la France, l’Inde, Singapour, la Thaïlande, les États-Unis et le Vietnam ont déjà autorisé l’importation de ces insectes. Le chemin tracé par Oxitec pour développer des moustiques génétiquement modifiés est à peine un exemple parmi les différentes voies choisies à travers le monde. Un autre exemple a été rendu public au début de l’année 2010 dans un article publié par la revue scientifique Proceedings of the National Academy of Sciences (PNAS) et signé par une équipe de scientifiques internationaux dont fait partie le biologiste brésilien Osvaldo Marinotti, ancien chercheur de l’USP et actuellement professeur à l’Université de Californie d’Irvine (UCI), aux États-Unis. Au lieu d’élever des mâles de l’espèce Aedes aegypti qui laissent un héritage mortel à leurs descendants, ils ont développé une femelle transgénique qui est incapable de voler. Pour cela, ils ont utilisé une différence naturelle entre les deux sexes. Il ne reste que les mâles Les muscles qui permettent au moustique de voler sont plus forts chez les femelles. On ne sait pas exactement pourquoi, mais on suppose que cela est dû au fait que ce sont les moustiques femelles qui sucent le sang d’autres animaux, y compris de l’homme et qui portent les œufs. Elles transportent plus de poids et elles ont donc besoin de plus de force dans les ailes. Sur le plan génétique, cette différence s’explique par le fait que les muscles qui donnent de l’impulsion au vol des femelles dépendent d’une protéine, appelée actine-4, qui est codifiée (produite) par un gène bien plus actif chez elles que chez les mâles. Ces derniers possèdent le même gène mais qui s’exprime de manière plus atténuée. Les mâles possèdent un autre type d’actine qui agit sur les muscles responsables du vol. Sachant cela, les scientifiques ont projeté un gène qui produit une substance toxique pour l’actine-4 qui empêche que cette protéine, présente dans les cellules des muscles du vol, développe sa fonction. Il en découle des femelles qui se développent normalement jusqu’à la phase larvaire mais qui, en devenant adultes, sont incapables de voler. Elles ne peuvent donc pas sortir de l’eau et meurent sans se reproduire et s’alimenter de sang. Elles ne laissent donc pas de descendants ni ne transmettent la dengue. Les mâles transgéniques arrivent à voler mais cela ne pose pas de problèmes car ils ne s’alimentent pas de sang mais de nectar et de sucs végétaux. En outre, ils restent toujours sexuellement actifs et continuent de s’accoupler avec des femelles sauvages, transmettant à leur descendance le gène qui empêche les moustiques femelles de voler. D’autres lignes de recherche sur les moustiques transgéniques sont au centre des études de Margareth Capurro. L’une concerne le transmetteur du paludisme et l’autre celui de la dengue. Dans le premier cas, elle retire un gène de la tique qui produit un peptide, fragment de protéine antimicrobien, appelé microplusine. « Ce gène est modifié pour pouvoir être introduit dans un moustique », explique la chercheuse. « Une fois introduit dans le génome de l’insecte, il commence à produire la microplusine qui élimine le protozoaire Plasmodium (microorganisme cellulaire vecteur du paludisme) avant qu’il ne soit transmis à l’être humain. » Dans le cas du moustique de la dengue et dans un projet financé par la FAPESP, Margareth Capurro manipule le génome d’un insecte à tel point que quand la femelle transgénique est infectée par le virus de la dengue en s’alimentant de sang, des protéines sont produites qui accélèrent le processus de mort cellulaire (apoptose), causant également la mort du propre insecte. «La présence du virus de la dengue déclenche l’activation de la protéine inductrice de l’apoptose, provoquant la mort cellulaire dans tous les tissus des moustiques infectés, causant la mort de la femelle et permettant de bloquer à 100% la transmission virale», déclare Margareth Capurro. Il y a certaines techniques d’introductions géniques qui sont testées pour introduire ces moustiques transgéniques dans la nature. L’une de ces méthodes s’appelle Médée parce qu’elle induit, à travers des systèmes biotechnologiques, la mort de la progéniture non transgénique issue du croisement de femelles normales avec des mâles au génome manipulé. Seule la progéniture qui porte le transgène survit. L’introduction du transgène dans une population de moustiques par la méthode Médée ne prend que huit générations. Si les recherches et le temps montrent que ces stratégies, utilisant l’ingénierie génétique pour créer des moustiques transgéniques, sont efficaces pour contrôler des maladies comme la dengue et le paludisme, elles offriront également un autre avantage car ce type de contrôle diminuera le besoin d’utiliser des insecticides et des larvicides. Ces produits peuvent à court terme devenir moins onéreux, mais avec le temps les insectes développent des résistances à ces poisons. Ainsi, l’utilisation de moustiques transgéniques stériles semble être une bonne option pour l’avenir. Le projet Promouvant la mortalité de l’Aedes aegypti infesté par le virus de la dengue – nº 08/10254-1 Modalité Soutien Régulier au Projet de Recherche Coordonnatrice Margareth Capurro – USP Investissement 347 263,34 réaux (FAPESP) [post_title] => Solution génétique [post_excerpt] => Solution génétique [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => solution-genetique [to_ping] => [pinged] => [post_modified] => 2013-05-15 15:39:17 [post_modified_gmt] => 2013-05-15 18:39:17 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=118021 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [4] => stdClass Object ( [ID] => 118031 [post_author] => 20 [post_date] => 2013-05-15 15:59:03 [post_date_gmt] => 2013-05-15 18:59:03 [post_content] => Publié en mai 2011 Le manioc, plante traditionnelle originaire du sud-est de l'Amazonie et déjà consommée au Brésil bien avant l'arrivée des Portugais – il constituait la base alimentaire des Indiens –, a acquis de nouvelles fonctions technologiques avancées. Des films plastiques biodégradables faits à partir de l'amidon de ce végétal pourront être utilisés dans la production d'un emballage actif, capable d'inhiber la croissance de champignons, ou intelligent, qui change de couleur quand l'aliment commence à s'abîmer. Le polymère est aussi testé dans des chirurgies cardiaques, tant pour revêtir l'implant veineux et lui donner plus de résistance au cours de la phase initiale que pour la libération de médicaments. Les études qui ont donné lieu aux films plastiques à base de l’amidon du manioc, un polysaccharide qui a pour fonction principale d'emmagasiner l'énergie produite par la photosynthèse, ont débuté en 2004 à l'Université de São Paulo (USP). Le groupe de recherches coordonné par la professeur Carmen Cecilia Tadini, du Laboratoire d'Ingénierie Alimentaire du Département d'Ingénierie Chimique de l'École Polytechnique de l’USP, développe des pellicules qui ont en commun dans leur composition l'addition de glycérol, une substance plastifiante connue commercialement sous le nom de glycérine. Sous-produit de la fabrication du biodiesel, le glycérol a un coût réduit. Trois types de films plastiques sont étudiés. Chacun est caractérisé par les substances présentes dans sa composition, et deux d'entre eux contiennent des nanoparticules d'argile pour les rendre plus résistants. Dans le cas de la pellicule antimicrobienne, ce sont les huiles essentielles de clou de girofle et de cannelle qui possèdent des principes actifs agissant contre les micro-organismes. Les tests réalisés en laboratoire avec le polymère contenant ces essences ont montré qu'il est capable d'empêcher la croissance de champignons. Carmen C. Tadini observe : « Aujourd'hui, ces micro-organismes sont combattus avec des substances antifongiques appliquées sur les produits emballés. […] Au cours des tests faits sur les films que nous développons, nous avons constaté que cette capacité peut durer jusqu'à sept jours ». L'un des défis à relever pour produire ce film fut de déterminer le dosage exact des essences de clou de girofle et de cannelle qui devait entrer dans sa composition. En cas de surdosage, l'odeur forte et caractéristique de ces épices pouvait contaminer les aliments emballés ; et à l'inverse, un dosage trop faible n'était pas efficace pour éviter la croissance des microbes. Ce défi a été confié à la doctorante Ana Cristina de Souza, qui a suivi un stage au Laboratoire de Haute Pression et Technologie Supercritique de l'Université de Coimbra, au Portugal. Elle y a appris à dominer la technique qui utilise du gaz carbonique à l'état supercritique pour incorporer les huiles essentielles aux polymères. Elle explique que l'état supercritique est atteint quand la température et la pression d'une substance sont supérieures à son point critique – qui se produit quand on atteint une pression donnée et que l'équilibre liquide-vapeur cesse d'exister. La substance dans cet état possède de grandes applications dans des processus d'extraction et de séparation chimique. Le deuxième plastique est fait à partir de la même base que le premier, avec de l'amidon de manioc, de la glycérine et des nanoparticules d'argile. Il se différencie d’après le quatrième élément de sa composition, à savoir un extrait riche en anthocyanines – un composant naturel de fruits violets ou violacés tels que le raisin, l’açaï, le jaboticaba et la mûre, par exemple. Carmen C. Tadini explique que « la caractéristique des anthocyanines dont nous tirons profit dans notre travail, c'est leur capacité à changer de couleur quand son pH change. Comme l'altération du pH est un des premiers indicateurs de détérioration d'un produit alimentaire, nous utilisons cela pour produire un film pour des emballages intelligents. Il change de couleur quand l'aliment commence à s'abîmer. Une palette de couleurs sur l'emballage peut indiquer au consommateur si le produit est bon ou pas ». Le troisième polymère est en phase de test avec l'équipe du professeur José Eduardo Krieger, directeur du Laboratoire de Génétique et Cardiologie Moléculaire de l'Institut du Cœur (InCor), de la Faculté de Médecine de l’USP. Le plastique est utilisé pour améliorer l'efficacité des greffons veineux utilisés dans les chirurgies de revascularisation myocardique, plus connues en tant que pontages par greffe veineuse saphène. Le film utilisé n'a pas de nanoparticules d'argile dans sa composition, afin qu'il puisse être absorbé par l'organisme du patient avec le temps. En plus de l'amidon de manioc et du glycérol, il contient une substance dénommée carboxymethylcellulose (CMC), un polysaccharide extrait de la cellulose et qui a pour fonction d'améliorer les propriétés mécaniques du plastique. Résistance naturelle Dans les pontages par greffe veineuse saphène, quand cette veine est retirée de la jambe et placée au niveau du cœur pour fonctionner comme artère, l'exigence de résistance est plus élevée que celle comparée à sa fonction naturelle. Eduardo Krieger explique que la rapidité du flux et la pression du sang circulant dans les veines sont plus faibles que dans les artères, d'où des parois plus fines. Lorsqu'une veine comme la veine saphène est greffée sur le cœur, elle subit une altération brusque de fonction et doit s'adapter rapidement à son nouveau rôle. Comprendre comment cela fonctionne et ce qui se passe quand une veine « s’artérialise » est l'objectif du travail de recherche développée par Krieger à l’InCor. « Nous cherchons à savoir quels sont les gènes et les protéines qui sont impliqués dans ce processus », précise-t-il. Une fois compris cela, il est possible de penser à de nouvelles interventions pour améliorer la performance et rendre plus durable le pontage par greffe veineuse saphène. Eduardo Krieger observe que la perte des greffons veineux atteint 50 % après 10 ans, comme si « la garantie expirait dans la moitié des cas ». Le travail de l'équipe vise à découvrir une alternative pour augmenter ce délai. Dans ce sens, deux fonctions du film développé par Carmen C. Tadini et son équipe sont testées. Dans la première, il est utilisé pour envelopper, c'est-à-dire pour revêtir extérieurement le greffon veineux afin de lui donner plus de résistance et de soutien dans les premières phases postchirurgicales. Après cela, la veine artérialisée acquiert un soutien qui lui est propre. Ainsi, le film perd sa fonction et l'absorption par l'organisme devient avantageuse. Dans la seconde fonction, le film est utilisé comme plate-forme pour libérer les médicaments des substances. De l’avis d’Eduardo Krieger, « découvrir les gènes ou les protéines impliquées dans l’artérialisation, différente chez chaque patient, permettra d'interférer sur le processus à des fins thérapeutiques. Si un gène est plus actif que ce qu'il devrait être, nous pouvons par exemple le désactiver avec des médicaments ». Pour que la pellicule développée par Carmen C. Tadini puisse exercer cette fonction, elle doit être imprégnée de médicaments, de la même manière que les autres plastiques avec des substances antimicrobiennes ou qui la font changer de couleur. Pour l'instant, les tests en laboratoire de Krieger sont effectuées in vitro avec des segments vasculaires et des cellules, à travers des modèles expérimentaux utilisant des souris. Par la suite, les expérimentations pourront être faites sur des lapins et des porcs. Le projet de développement du film pour envelopper les veines du cœur est plus récent. Initié en 2009 avec le doctorat d’Helena Aguiar et le financement du Conseil National de Développement Scientifique et Technologique (CNPq), il compte sur la participation du groupe de chercheurs de l'Institut de Chimie de São Carlos, de l’USP, dirigé par le professeur Douglas Franco. Le travail le plus avancé est celui du développement du plastique aux propriétés antimicrobiennes, débuté en 2004. « Nous en sommes déjà à la phase de viabilité de la production à l'échelle industrielle », précise Carmen C. Tadini. Ce projet bénéficie du financement de la FAPESP. Pour le développement du film intelligent, le groupe a obtenu des bourses du CNPq et de la Coordination de Perfectionnement du Personnel de Niveau Supérieur (Capes). Homogène et biodégradable L’évolution de l'intégration des nanoparticules d'argile aux plastiques a bénéficié du travail de la doctorante Otilia de Carvalho, qui a suivi un stage à l'Université française de Strasbourg, plus précisément au Laboratoire d’Ingénierie des Polymères pour les Hautes Technologies (Lipht). Elle signale que son « principal objectif pendant le stage a été d’élaborer un film à base d’amidon, nanocomposé d’argile et plastifié avec du glycérol. […] Vu qu'il y a une faible compatibilité entre l'amidon et l’argile native, j'ai testé deux modifications et obtenu des matériaux beaucoup plus homogènes ». Une étude présentée en avril 2011 par l'institut allemand Fraunhofer montre également l'utilisation de films qui changent de couleur quand des aliments comme la viande ou le poisson sont avariés. Dirigée par le professeur Anna Hezinger, la recherche a utilisé des capteurs chimiques dans des emballages plastiques qui répondent aux amines, des molécules présentes dans la détérioration des viandes, et qui changent la couleur du film qui enveloppe le produit. Hezinger a obtenu le soutien financier du Ministère de l'Éducation et de la Recherche, et à présent elle recherche des partenaires dans le secteur industriel pour produire ces capteurs chimiques pour emballages. Quant aux plastiques biodégradables en général, il s'agit d'un domaine en développement dans le monde entier. Nombres de ces films sont aujourd'hui produits dans plusieurs pays comme le Japon, les États-Unis, la Hollande et le Brésil. Ils sont fabriqués à partir de plusieurs sources, dont le manioc, le maïs, la pomme de terre, le soja et la cellulose. Le Brésil produit à une échelle pilote un plastique biodégradable à partir de la canne à sucre et qui possède des propriétés similaires à celles du polypropylène. Appelé Biocycle, il a été développé de concert par l’Institut de Recherches Technologiques (IPT) et le Centre de Technologie de la Copersucar (CTC) au début des années 2000. Eduardo Brondi, gérant administratif de l'entreprise PHB qui produit le bioplastique, observe : « Aujourd'hui, la technologie de production est au point. Toute la production est destinée au développement et au test d'application, conjointement avec de nombreux partenariats dans le monde entier ». Parmi ces applications se trouvent des pièces automobiles, des jouets, des verres et des couverts. Conformément à une étude de l’European Bioplastics – association créée en 2006 et qui représente les fabricants, les traiteurs et les utilisateurs de bioplastique et polymères biodégradables et leurs produits dérivés –, en 2007 (donnée disponible la plus récente) la capacité de production mondiale de bioplastique équivalait à près de 0,3 % de la production mondiale de plastiques, principalement dérivés de sources pétrochimiques. La prévision est que la production de bioplastiques atteigne 2,33 millions de tonnes en 2013 et 3,45 millions de tonnes en 2020. LE PROJET Emballage actif biodégradable à base de fécule de manioc et d’additifs naturels comestibles : élaboration, caractérisation et évaluation - nº 2005/51038-1 MODALITÉ Ligne Régulière d’Aide au Projet de Recherche COORDONNATRICE Carmen Cecília Tadini – USP INVESTISSEMENT 85 401,19 réaux et 58 250,00 US$ (FAPESP) Articles scientifiques 1. KECHICHIAN, V., DITCHFIELD, C., VEIGA-SANTOS, P. & TADINI, C.C. Natural antimicrobial ingredients incorporated in biodegradable films based on cassava starch. LWT - Food Science and Technology. v. 43, pp. 1088-1094, 2010. 2. VEIGA-SANTOS, P., DITCHFIELD, C.& TADINI, C.C. Development and evaluation of a novel pH indicator biodegradable film based on cassava starch. Journal of Applied Polymer Science. v. 120, pp. 1069-1079, 2011.   [post_title] => Couleur liée aux champignons [post_excerpt] => Couleur liée aux champignons [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => couleur-liee-aux-champignons [to_ping] => [pinged] => [post_modified] => 2013-05-15 16:51:48 [post_modified_gmt] => 2013-05-15 19:51:48 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=118031 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) ) [humanites] => Array ( [0] => stdClass Object ( [ID] => 118055 [post_author] => 38 [post_date] => 2013-05-15 16:19:18 [post_date_gmt] => 2013-05-15 19:19:18 [post_content] => Publié en juin 2011 Peu de gens savent que la Région Métropolitaine de São Paulo n’est plus le grand pôle d’absorption d’immigrants internes et étrangers comme ce fut le cas durant une grande partie du XXème siècle. Le solde des entrées et des sorties a été sensiblement négatif au cours de la première décennie du XXIème siècle. 100 000 personnes ont émigré dans la Région Métropolitaine et 800 000 l’ont quittée pour se rendre en province pour ce seul État. Le nouveau profil migratoire, que ces chiffres dissimulent d’une certaine manière, est encore moins connu. Le flux migratoire ne s’explique plus par la dynamique de l’industrie et la création d’emplois formels qui attiraient auparavant de nouveaux habitants. La grande nouveauté est un phénomène de réversibilité où les séjours ont tendance à se raccourcir, le mouvement migratoire se caractérisant désormais par des allées et venues, outre les retours définitifs. Décrire de manière détaillée ces nouvelles configurations démographiques, leurs implications et leurs conséquences est la tâche assumée par l’Observatoire des Migrations du Noyau d’Études de la Population (Nepo) de l’Université Publique de Campinas (Unicamp), financé par la FAPESP et coordonné par Rosana Baeninger, professeur du Département de Sociologie de l’Institut de Philosophie et de Sciences Humaines (IFCH), également à l’Unicamp. Le projet englobe l’étude d’une large période allant de 1880 à 2010 ainsi qu’un large éventail interdisciplinaire permettant aux nouvelles études thématiques, actuellement au nombre de 16, d’apparaître au fur et à mesure que les recherches avancent. « Notre objectif est que chaque chercheur puisse dévoiler les processus que les grands chiffres ne montrent pas », dit Rosana Baeninger. « L’enjeu pour nous est de partir à la recherche de nouvelles sources de données car les recensements ne nous fournissent pas d’informations sur les migrations internes et étrangères, par exemple ». Les résultats définitifs seront publiés dans un atlas thématique et feront partie d’une banque de données. De nouvelles approches bibliographiques nationales et étrangères permettent également de les comprendre dans un cadre plus large, outre les nouvelles sources d’information utilisées. L’un des points de départ des études de l’observatoire est que « la compréhension des processus migratoires n’a de sens que si nous considérons les dimensions spatiales et territoriales ». Nous sommes ainsi arrivés à la constatation qu’au XXIème siècle, comme on pouvait déjà l’entrevoir depuis les années 90, la Région Métropolitaine de São Paulo a suivi le même parcours que les migrations internationales. « La métropole possède une caractéristique tournée davantage vers le marché international, comme faisant partie d’une chaîne de villes globales », déclare Rosana Baeninger. Dans ce large spectre, alors que les processus économiques se multiplient spatialement, le temps se mondialise. C’est ce que le sociologue britannique Anthony Giddens appelle « mécanismes de délocalisation ». Aujourd’hui, São Paulo est autant la destination de main d’œuvre hautement qualifiée que de travailleurs sans papiers et sans formation spécifique mais qui s’insèrent dans des mécanismes de production flexibilisés et adaptés à la mobilité du capital. Dans le premier cas de figure se distinguent les argentins et les chiliens qui viennent en ville occuper des postes de direction avec une autorisation de permanence pour des périodes renouvelables de deux ans qui sont comptabilisés par le Ministère du Travail. Ils sont au nombre de 20 000 selon les données les plus récentes. Dans le deuxième cas se trouvent les boliviens qui immigrent de leur lieu d’origine et qui échappent aux statistiques officielles. Leur nombre total est estimé à 200 000 selon des organisations privées comme l’organisme Pastoral do Imigrante. Ainsi, d’après le sociologue, « 100 ans après la migration européenne, São Paulo est redevenue la porte d’entrée des migrations internationales qui maintenant ne sont plus subventionnées par le gouvernement ». Comme on le sait, car c’est un phénomène qui existe depuis trois décennies, les boliviens viennent principalement pour travailler dans l’industrie de la confection qui est contrôlée par les immigrants asiatiques ou leurs descendants. La migration bolivienne qui en est à sa deuxième génération a eu un impact urbain sensible comme le changement bien connu du profil démographique du quartier Bom Retiro, traditionnellement occupé par le commerce et la présence judaïque et aujourd’hui siège des principaux ateliers de confection qui emploient une main d’œuvre latino-américaine. Il s’agit déjà d’une activité basée sur un principe de chaîne de production internationalisée car les tissus viennent de Corée. Depuis ces dernières années, le secteur développe des systèmes élaborés qui permettent à beaucoup de boliviens de travailler saisonnièrement en fonction de besoins spécifiques et selon les époques de lancement de ligne de vêtements (été et hiver), ce qui renforce le mouvement général de va et vient chez les immigrants urbains. Aujourd’hui, de nombreux travailleurs boliviens sont issus de zones urbaines et arrivent avec une formation professionnelle. Le travail saisonnier est devenu habituel et il s’est intensifié chez les immigrants internes, principalement des nordestins. À titre d’exemple, il y a un gros contingent de personnes qui travaillent dans la vente de billets de loterie dans les rues durant quelques mois et qui reviennent ensuite sur leur lieu d’origine pour profiter de la haute saison de l’industrie touristique. L’augmentation du coût de la vie urbaine explique également les courts séjours ou les retours. Les banlieues avaient auparavant leur propre routine ainsi qu’un potentiel d’absorption des nouveaux habitants, mais aujourd’hui, selon Rosa, « la banlieue n’est plus séparée du centre ; ces régions se sont densifiées et se sont reconfigurées ». Les retours sont un trait caractéristique du profil migratoire du XXIème siècle dans la Région Métropolitaine de São Paulo. Il s’agit de l’endroit du pays qui perd le plus de population par an, principalement en matière de migration interne. En contrepartie, c’est l’État qui reçoit le plus de main d’œuvre qualifiée. Réseaux Les réseaux sociaux, groupes articulés de soutien à la permanence temporaire et formés principalement par des parents, sont un facteur important dans la structure sociale qui favorise la circulation des immigrants, tant internes qu’étrangers. Grâce à eux, ils ont la possibilité de laisser leurs enfants durant un certain temps sur leur lieu d’origine pendant qu’ils exercent un travail saisonnier. Les réseaux sociaux fonctionnent aux deux extrémités de la migration et ne sont pas un phénomène nouveau (certains réseaux existent depuis 60 ans), mais ils ont acquis une importance primordiale dans la sustentation de la temporalité migratoire entre des espaces si éloignés. Ceci a permis de faire apparaître de nouveaux systèmes organisés et dynamiques de transport comme les autobus qui partent de la région de São Miguel Paulista, dans la Zone Est de São Paulo. L’État de Goiás est devenu aujourd’hui le grand axe migratoire du pays. « C’est le grand pôle d’absorption », déclare Rosana Baeninger. L’agro-industrie attire d’ailleurs de la main d’œuvre qualifiée pauliste. En outre, un centre producteur de céréales comme la ville de Rio Verde offre des cours de gestion publique qui attirent des travailleurs qualifiés venant d’autres États. L’expansion de l’agro-industrie dans la province pauliste continue également d’attirer des immigrants venant d’autres régions, de la capitale, de centres voisins et à une moindre échelle de l’étranger. À l’agro-industrie s’ajoute la robustesse des niches économiques tournées vers le marché extérieur que différentes régions sont parvenues à consolider, comme les chaussures dans la zone de Franca, les bijoux à Limeira, les meubles à Votuporanga, le secteur hôtelier soutenu par la tournée des rodéos à Barretos etc. Le réseau routier est suffisamment efficace pour que beaucoup d’employés qualifiés qui habitent dans une ville puissent aller travailler dans une autre, provoquant « la densification de petites villes auparavant marquées par l’évasion ». [caption id="attachment_118074" align="alignleft" width="284"]Coréens devant un magasin de meubles d’occasion dans le quartier Bom Retiro Coréens devant un magasin de meubles d’occasion dans le quartier Bom Retiro[/caption] Un retour à la campagne ? « Non », dit Rosana Baeninger. « Même si le travail se déplace vers la zone rurale, les personnes vivent dans des villes que nous appelons zones d’extension urbaine non répertoriées, c’est-à-dire des zones avec des caractéristiques urbaines sans qu’elles en aient le statut officiel ». Avec cette uniformisation, la migration sur de courtes distances et le va et vient régional ont beaucoup augmenté, au point de s’interroger sur un plan théorique : les personnes qui se déplacent de la sorte peuvent-elles être considérées comme des immigrants ? Selon la conception en vigueur dans les années 60, d’après le professeur, le temps d’adaptation d’un immigrant appartenant à la zone rurale traditionnelle dans un environnement urbain moderne était environ de 10 ans. Aujourd’hui, dans la province pauliste, les modèles d’urbanisation et de consommation sont pratiquement identiques entre les régions. Impact  Le mode de fonctionnement des recherches de l’Observatoire des Migrations basé fortement sur l’interdisciplinarité et la coopération avec d’autres institutions académiques brésiliennes et étrangères ont favorisé l’apparition d’études de phénomène en moindre quantité, mais qui sont importantes du point de vue sociologique et anthropologique. À titre d’exemple, un projet inédit à l’étude concerne l’impact social des transferts de pénitenciers dans des villes de province de l’État de São Paulo et la réaction de certains groupes à cette mesure. Une étude en cours explique la migration de réfugiés dans la région métropolitaine au cours de ce siècle. Il y a une présence significative de colombiens (et de certains cubains) qui ont été forcés de quitter leur lieu d’origine à cause de conflits internes. « Le Brésil possède l’une des législations les plus ouvertes en termes de réfugiés en Amérique Latine, ce qui favorise ce flux », déclare Rosana Baeninger. On calcule qu’il y a 1 800 réfugiés dans la ville de São Paulo. Les plus récents sont les colombiens qui, en général, ont une famille dont le conjoint et les enfants sont brésiliens. Ils ont normalement des qualifications professionnelles mais ils ont des difficultés à s’insérer car leurs diplômes ne sont pas reconnus. À titre de comparaison, de nombreux réfugiés de la ville de Rio sont composés d’africains célibataires qui arrivent habituellement comme étudiants et qui plus tard demandent l’asile. Selon Rosana Baeninger, le problème des réfugiés et des immigrants sans papiers crée des situations qui réclament des politiques sociales en faveur de leurs droits et de leur protection contre la discrimination, et qui n’ont pas encore été instituées. Une étude particulièrement intéressante de l’Observatoire des Migrations sur la présence guarani à São Paulo est menée par la sociologue Marta Maria do Amaral Azevedo, également de l’Unicamp. Il y a actuellement 20 communautés dans la région de l’État et quatre d’entre elles dans la capitale. Le processus migratoire, originaire du Paraguay, de l’État du Mato Grosso du Sud et de l’Argentine, a commencé au cours de la deuxième moitié du XIXème siècle. On a toutefois observé qu’il perdurait, « menant souvent à des impasses en matière de politiques publiques et sur la question des terres ». L’étude cherche, entre autres choses, à quantifier cette population et à tracer sa généalogie. « Les recherches existantes indiquent des motivations religieuses et économiques, comme la recherche d’une terre sans maux, un endroit où il est possible de vivre à la manière guarani ou selon le guarani reko, qui est la manière d’être de ce peuple », dit Marta. « Il y a aujourd’hui de larges réseaux sociaux structurés à partir des liens de parenté, des affinités religieuses, des échanges économiques et de la pratique du concept oguatá qui est de cheminer, ce qui peut signifier une visite à un parent ou un voyage pour consulter un pajé (NT: un sorcier),ou même pour une réunion de famille ». [post_title] => La métropole en mouvement [post_excerpt] => La métropole en mouvement [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => la-metropole-en-mouvement [to_ping] => [pinged] => [post_modified] => 2013-05-15 16:32:19 [post_modified_gmt] => 2013-05-15 19:32:19 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=118055 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [1] => stdClass Object ( [ID] => 118079 [post_author] => 370 [post_date] => 2013-05-15 16:40:14 [post_date_gmt] => 2013-05-15 19:40:14 [post_content] => Publié en avril 2011 [caption id="attachment_118087" align="alignright" width="290"]Peinture de Jan van der Straet de 1570, représentant un alchimiste dans son laboratoire Peinture de Jan van der Straet de 1570, représentant un alchimiste dans son laboratoire[/caption] C’est en prenant au pied de la lettre la devise de la Royal Society, Nullius in verba (« ne croire personne sur parole », c’est-à-dire qu’il est essentiel de « mettre la main à la pâte » en science) que les chercheuses Ana Maria Alfonso-Goldfarb et Márcia Ferraz, du Centre Simão Mathias d’Études en Histoire de la Science (Cesima) de l’Université Catholique Pontificale de São Paulo (PUC-SP), ont fait une découverte surprenante en 2008. Après avoir épluché des montagnes de documents de l'institution anglaise, elles ont trouvé la « recette » de l’alkahest, un prétendu « dissolvant universel » alchimique qui pourrait dissoudre toute substance en la réduisant à ses composants primaires. Il manquait cependant quelques éléments pour « clore le dossier », et plus particulièrement le nom de l'auteur de la copie de la recette retrouvée. En se replongeant dans les archives, les chercheuses ont finalement mis fin à un mystère pour en révéler un autre, encore plus étonnant : la découverte d'une recette de la fameuse pierre philosophale qui, selon la croyance, transmuterait des métaux « vils » en or. Ana Maria Alfonso-Goldfarb déclare : « Ce fut une grande surprise, presque embarrassante parce qu'en tant qu'historiennes de la science il est de plus en plus difficile de vérifier combien l'alchimie a joué un rôle majeur dans la consolidation de la nouvelle science en plein XVIIIe siècle. Mais il est important de souligner que cette permanence de la quête pour la transmutation était plus pensée à partir de son caractère chimique, surtout comme un instrument d'avancée de la médecine, que de son caractère ésotérique. Cela apparaît clairement dans les propos d'hommes de renom comme Boyle ou Newton, par exemple, qui croyaient en l'existence de la pierre philosophale ». Les chercheuses considèrent que les travaux sur la pierre philosophale étaient réalisés dans le cadre de la science de l'époque, même s'il existe d'autres points de vue. D'après l'historien Theodore Hoppen, professeur de l'University of Hull et auteur de l'étude The nature of the early Royal Society, « le baconisme est entré à la Royal Society distordu par la perspective d'un groupe lié à Samuel Hartlib, un des fondateurs de l'institution. Ce cercle poussait à l’extrême les préceptes de Bacon sur l'étude ‘du nouveau, du rare et de l'étrange’ et les unissait à un intérêt tenace pour la découverte d’inventions ‘utiles’, sans laisser de côté les idées hermétiques en reprenant des travaux de Paracelso et Helmont. Il suffit de voir combien Boyle entretenait un intérêt pour le moins délicat pour des questions de philosophie naturelle ; il était disposé à accepter tout type de phénomène du moment qu’il pouvait être expliqué selon des principes mécaniques. Cela incluait la pierre philosophale. Dans une lettre à Henry Oldenburg, secrétaire de la Royal Society, Newton en vient à se plaindre de son collègue, qui devrait selon lui ‘se taire’ et ne pas diffuser des ‘secrets d'un véritable philosophe hermétique’ ». Latin Henry Oldenburg est d'ailleurs au centre du nouveau mystère révélé par les chercheuses brésiliennes. Après plusieurs tentatives d'identification de l'écriture de la recette de l’alkahest, elles ont rencontré un document écrit en latin qui contenait en marge des observations en français. « L'écriture nous a semblé connue et nous avons vu qu'elle était d’Oldenburg, qui écrivait ses annotations personnelles en français. Le mystère était alors résolu : c’est lui qui avait retranscrit la recette de l'alkahest. Mais quand nous avons lu le texte en latin écrit d'une autre écriture, nous avons vu qu'il s'agissait d'une recette de la pierre philosophale », raconte les chercheuses. Le titre du texte, qui daterait selon elles de 1659, était : Processus de bois. Au départ, elles ont cru qu'il s'agissait d'expérimentations sur le brûlage de bois, mais en vérifiant la présence d'éléments de la pierre philosophale elles ont compris qu'il s'agissait du nom d'une personne. En France, elles ont recherché un Du Bois qui aurait travaillé sur la célèbre transmutation et découvert, après un véritable travail de détective, l'histoire de Noël Picard, dit Du Bois, pendu à la Bastille en 1637 sur l'ordre du cardinal Richelieu. La raison ? Il avait tenté de tromper le puissant ministre de Louis XIII en affirmant être capable de produire de l'or à partir du plomb. Après une vie rocambolesque de voyages et de conversions de père capucin à luthérien, Du Bois rentre à Paris et s'attire la sympathie du père Joseph, confesseur de Richelieu. D'après Márcia Ferraz, « le cardinal y a vu là la chance d'augmenter la richesse de la France et de résoudre les problèmes financiers que connaissait le royaume. Il a alors fait appel à Du Bois pour qu'il fabrique de l'or avec sa ‘poudre de projection’, et ce en présence du roi, de la reine et d'autres notables, parmi lesquels Richelieu ». Muni d'une coupelle et d'un creuset, Du Bois est allé au Louvre et s'est mis à travailler en demandant aux gardes de lui apporter des balles de mousquet. Après les avoir chauffées et aspergées d'une poudre, il les a recouvertes avec des cendres. Enthousiaste, le roi a tenu à souffler personnellement sur le mélange, couvrant ainsi sa royale figure, celle de la reine et des membres présents. Mais l'émotion compensait tout dans la mesure où on pouvait voir de l’or au fond du récipient. Louis XIII à étreint le pauvre Du Bois, lui a donné le titre de noble sur-le-champ et même concédé le privilège de chasser sur les terres royales. Richelieu, ravi, a entraîné le père Joseph dans un coin et l’a salué comme s'il tenait entre les mains un futur chapeau cardinalice. L'entrain général n'a pas été affecté par les orfèvres de la cour, qui ont vérifié qu'il s'agissait d'un or à 22 carats. Du Bois leur a répondu que c'était seulement un échantillon des possibilités. [caption id="attachment_118089" align="alignleft" width="290"]Vision ironique de la tentative de faire la « grande œuvre » Vision ironique de la tentative de faire la « grande œuvre »[/caption] Richelieu lui a dit que le roi avait « seulement » besoin de 800 000 francs hebdomadaires en or, et il lui a donné 20 jours pour débuter la production. Il avisa le roi que cela allait permettre de ne plus faire payer d’impôts au peuple et de devenir le monarque au pouvoir le plus puissant d'Europe. Toutefois, Du Bois a utilisé le délai pour chasser avec ses amis. Soupçonneux, le cardinal a ordonné qu'on le surveille ; et irrité par le retard, il a fait construire un laboratoire pour que le prétendu alchimiste réalise, cette fois en tant que prisonnier, la « grande œuvre » au château de Vincennes. Mais ce fut un nouvel échec, qui conduisit le « noble » à la Bastille où il fut torturé et finalement tué pour ne pas avoir fourni la recette de la pierre philosophale. En dépit des événements, ses bourreaux pensaient qu'il était réellement capable de produire de l'or mais qu'il essayait d'en cacher le secret. Vingt ans plus tard, en 1659, Oldenburg se trouvait en France et il a fini par tomber sur la recette de Du Bois ; il l’a envoyée en Angleterre où elle a semble-t-il été reçue de manière exaltante. Et Ana M. Alfonso-Goldfarb d'ajouter : « À la Royal Society, en plein XVIIe siècle, ces hommes brillants étaient persuadés que Du Bois avait vraiment réussi à ‘ouvrir l’or’, c'est-à-dire à le dissoudre pour préparer d'autres matériaux, une fonction attribuée à la pierre philosophale ». Pierres  De l’avis d’Ana M. Alfonso-Goldfarb, « au centre de tout cela se trouvait le souci de résoudre des problèmes de santé, en particulier la dissolution de pierres de l'organisme – l'une des principales causes de décès à cette époque. On pensait que la solution idéale était de les dissoudre avec des acides minéraux, mais sans porter atteint à la vie du patient. Il fallait trouver quelque chose qui ait le pouvoir de l'acide et pas ses problèmes. Et c'est alors que sont apparus l’alkahest et la pierre philosophale qui, réunis, seraient le médicament idéal ». Le premier allait réduire les effets négatifs de l'acide et la pierre constituait le complément parfait parce qu'elle était suffisamment puissante pour dissoudre un métal noble et résistant comme l’or et en même temps « faible » contre l'organisme. « Bien sûr, cela n'empêchait pas de penser à la pierre comme un élément capable de produire de l'or pour des raisons financières, mais les raisons pécuniaires n'étaient pas les seules ni même les plus importantes » observe Márcia Ferraz. Tout était relié. Si la pierre avait le pouvoir de « perfectionner » des métaux en les changeant en or – conséquence de la croyance des alchimistes en l'unité de la matière –, cette « médecine » des métaux pourrait être étendue à la médecine des hommes, qui serait alors « perfectionnée » à son tour. Partant de là, beaucoup évoquèrent la pierre comme l'élixir de la vie ou le grand élixir, une panacée pour toutes les maladies et capables de prolonger la vie. Puisque l’or en tant que métal ne rouillait pas, on a commencé à le voir comme symbole de l'immortalité. La conséquence fut de penser à son utilisation dans la médecine des anciens et dans l'alchimie chinoise qui recherchait l'élixir de la longévité. Pour Paulo Alves Porto, historien de la chimie et professeur de l'Institut de Chimie de l'Université de São Paulo, « les travaux de Paracelso et de Van Helmont, entre autres, se sont développés à un moment où l'on reconsidérerait la médecine galénique. Il y avait également de nouvelles maladies qui exigeaient d'autres solutions plus efficaces. Leur recherche pour l’alkahest, par exemple, révèle cette préoccupation médicinale ». Dans son article Alchimy and iatrochemistry, l'historien américain Allen Debus écrit qu’« entre les XVIe et XVIIIe siècles, la signification de la chimie doit être recherchée au niveau de sa relation avec la médecine, même si la transmutation est restée une constante jusqu'au siècle des Lumières, y compris quand on opérait déjà la séparation entre la chimie et la médecine ». Selon lui, la relation s’établit au départ à partir de la rivalité avec les galénistes pour progresser au niveau des explications chimiques de processus physiologiques – la base de l’œuvre de Van Helmont –, ce qui a fini par entraîner la séparation entre la chimie et la médecine pour d’autres objectifs non pharmaceutiques : « le travail de Lavoisier n’a pa eu besoin de s’adresser à une chimie basée sur la médecine à cause de ce long processus. L’importance qu’a eu la médecine dans l’ascension de la science moderne était quelque chose de peu évoqué ». Ce n’est qu’à la fin du XVIIIe siècle que la transmutation a perdu un peu de sa force. Du point de vue de l’historien Lawrence Principe, de la Jons Hopkins University et auteur de Alchemy tried in the fire, « un mouvement est parti de l’Académie Royale des Sciences de Paris pour laisser de côté la pratique et domestiquer la chimie dans une discipline professionnelle qui est entrée à l’académie. Il fallait rompre une fois pour toutes avec le passé alchimique et tout recommencer de zéro pour donner à la chimie une nouvelle identité et un statut. Néanmoins, la démarche n’a pas été totalement un succès ». Ana M. Alfonso-Goldfarb pense que « le réseau de documents et de personnes intimement liés à la transmutation et mis en avant dans notre recherche s’enrichit chaque jour de nouvelles ramifications et de nouvelles données. Cela peut être la pointe d’un grand iceberg documentaire. [post_title] => Des documents qui valent de l’or [post_excerpt] => Des documents qui valent de l’or [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => des-documents-qui-valent-de-lor [to_ping] => [pinged] => [post_modified] => 2013-05-15 16:52:44 [post_modified_gmt] => 2013-05-15 19:52:44 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=118079 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [2] => stdClass Object ( [ID] => 118099 [post_author] => 38 [post_date] => 2013-05-15 17:04:41 [post_date_gmt] => 2013-05-15 20:04:41 [post_content] => Publié en mai 2011 [caption id="attachment_118127" align="aligncenter" width="390"]Vision du Brésil qui révèle l´exploration Vision du Brésil qui révèle l´exploration[/caption] Un matériel cartographique précieux est en train d’acquérir une grande visibilité grâce au travail du groupe de chercheurs de l’Université de São Paulo (USP), responsable de la construction de la Bibliothèque Numérique de Cartographie Historique. L’accès en ligne du site Internet www.cartografiahistorica.usp.br est ouvert à tous. Né d’un concept développé par le Laboratoire d’Études de Cartographie Historique (Lech), le site n’offre pas seulement une collection de cartes rares imprimées entre le XVIème et le XIXème siècle : il permet aussi de réaliser une série de références croisées, de comparaisons et d’interprétations avec la pluralité et la rapidité d’Internet. Iris Kantor, l’une des coordonnatrices du projet et professeur du Département d’Histoire de l’USP, remarque qu’en fin de compte « une carte seule ne fait pas le printemps ». L’ensemble révèle beaucoup plus que des informations géographiques. Il donne la possibilité de percevoir l’élaboration d’un imaginaire dans le temps, dévoilé par des visions du Brésil conçues en dehors du pays. Le travail fait partie d’un vaste projet thématique intitulé Dimensions de l’empire portugais, coordonné par le professeur Laura de Mello e Souza et soutenu par la FAPESP. Jusqu’à présent, la collection de cartes repose sur deux sources majeures : la première est l’ensemble des annotations produites pendant 60 ans par l’amiral Max Justo Lopes, un des principaux spécialistes brésiliens de cartographie. La deuxième est la collection privée de la Banque Santos, acquise en 2005 par l’État pendant la procédure d’intervention sur le patrimoine du banquier Edemar Cid Ferreira. Une décision judiciaire a transféré la garde des cartes à l’Institut des Études Brésiliennes (IEB) de l’USP – une initiative louable vu que la collection « était entreposée dans un hangar dans des conditions très précaires, sans aucun souci de conditionnement adéquat », observe Iris Kantor. Près de 300 cartes ont été recueillies. On sait que la collection originale en comptait beaucoup plus, mais on ignore où se trouvent les autres. La première démarche fut de récupérer et de restaurer les pièces. Comme elles sont arrivées à l’USP « totalement nues », un travail de datation et d’identification de l’œuvre et de l’auteur s’est avéré nécessaire. Au cours de 2007 et 2008, le Laboratoire de Reproduction Numérique de l’IEB a fait des recherches, acquis et utilisé la technologie appropriée pour reproduire en haute résolution la collection de cartes. Plusieurs tentatives ont été menées avant d’atteindre la précision désirée des traits et des couleurs. Puis le Centre d’Informatique du campus de l’USP à São Carlos (Cisc/USP) a développé un logiciel spécifique pour créer une base de données capable d’interagir avec le catalogue général de la bibliothèque de l’USP (Dedalus), mais aussi de recueillir et de transférer des données d’autres bases disponibles sur le réseau Internet. L’une des sources d’inspiration des chercheurs a été le site du collectionneur et artiste graphique anglais David Rumsey, qui abrite 17 000 cartes (cf. www.davidrumsey.com) ; une autre fut la Bibliothèque Virtuelle de la Cartographie Historique (pionnière en la matière) de la Bibliothèque Nationale, qui réunit 22 000 documents numérisés (cf. www.bndigital.bn.br/cartografia). Dans l’avenir, les archives cartographiques de l’USP intégreront la Bibliothèque Numérique de Cartographie Historique. La priorité a été donnée aux cartes de la Banque Santos parce qu’elles n’appartiennent pas à l’université et peuvent à tout moment être judiciairement récupérées pour régler des dettes. Iris Kantor indique qu’aujourd’hui la Bibliothèque Numérique comporte « des informations cartobibliographiques et biographiques, des données de nature technique et éditoriale ainsi que des entrées explicatives destinées à contextualiser le processus de production, de circulation et d’appropriation des images cartographiques ». En affirmant qu’« il n’existe pas de simples cartes », elle sous-entend que la réunion de ces informations est nécessaire pour comprendre ce qui se cache sous la superficie des contours géographiques et de la toponymie. Et d’ajouter : « L’historien part du présupposé selon lequel toutes les cartes mentent ; la manipulation est une donnée importante pour toute pièce géographique ». Les intérêts géopolitiques et commerciaux de l’époque donnée et de ceux qui ont produit ou commandé la carte ont fait partie de cette manipulation. L’historien Paulo Miceli de l’Université d’État de Campinas (Unicamp), sollicité comme consultant par la Banque Santos au début de la décennie précédente pour l’organisation de la collection, rappelle que le premier registre cartographique de ce qui s’appelle aujourd’hui le Brésil fut une carte du navigateur espagnol Juan de la Cosa (1460-1510). Datée de 1506, elle montre « la ligne de démarcation du Traité de Tordesillas, l’Afrique aux contours très nets et, à sa gauche, un petit triangle pour indiquer l’Amérique du Sud […] Le Brésil a surgi d’une sorte de brouillard de documents, notamment conditionné par la rigueur de la couronne portugaise sur le travail des cartographes qui pouvaient risquer jusqu’à la peine de mort ». Cette apparition « progressive » du Brésil sur la scène géopolitique impériale est le thème de sa thèse de postdoctorat, très justement intitulée Le dessin du Brésil sur la carte du monde – à paraître sous forme de livre par la maison d’édition de l’Unicamp. Le titre fait référence au Theatrum orbis terrarum (Théâtre du monde) du géographe flamand Abraham Ortelius (1527-1598), considéré comme le premier atlas moderne. Navigateurs Contrairement à ce que l’on pense, les cartes anciennes n’avaient pas pour fonction principale, et pratique, d’orienter les explorateurs et les navigateurs. Jusqu’au XIXème siècle, ces derniers se valaient de « cartes de navigation », une sorte d’itinéraire écrit – d’après Miceli –, sur des « parchemins sans beauté ni ambiguïté, troués de compas et autres instruments, et qui sont devenus des couvertures de dossiers dans des archives cartographiques ». Iris Kantor observe que « les cartes étaient des objets d’ostentation et de prestige, valorisées et utilisées comme ornements par les nobles et les érudits. […] Un des trésors du Vatican était sa collection cartographique ». Les itinéraires de navigation, par contre, étaient simplement manuscrits et non imprimés. Or, c’est précisément le processus d’impression qui donnait aux cartes le statut de documents privilégiés. Les plaques de métal d’origine avec les altérations effectuées au cours du temps duraient jusqu’à 200 ans et restaient toujours entre les mains de « familles » de cartographes, éditeurs et libraires. Parfois, ces familles étaient des groupes consanguins aux fonctions héréditaires, d’autres fois des ateliers hautement spécialisés. Pour Miceli, les artistes qui accumulaient de l’expérience au long des décennies ne voyageaient pas et recueillaient leurs informations de « navigateurs très souvent analphabètes ». Pour donner une idée du prestige attribué à la cartographie, il rappelle que l’Atlas Maior du hollandais Willem Blaue (1571-1638), peint avec de la peinture d’or, a été considéré comme le livre le plus cher de la Renaissance. Les « écoles » de cartographes sont l’un des critères de recherche de la Bibliothèque Numérique de Cartographie Historique, parmi lesquelles l’école flamande, la française et la vénitienne – rappelant ainsi que le savoir fondamental provient des navigateurs et cosmographes portugais. Iris Kantor pense qu’elles s’interpénètrent et envisage dans le futur de remplacer le terme « école » par celui de « style ». L’équipe a également pour projet de reconstituer la généalogie de la production de cartes sur la période considérée. L’étude de ces documents comprend l’identification de ceux qui contiennent des erreurs volontairement commises dans un effort de contre-information, nommé par Miceli d’« adultération patriotique ». C’est le cas des cartes qui falsifient la localisation des ressources naturelles, comme les fleuves, pour favoriser les Portugais ou les Espagnols dans la division du Traité de Tordesillas. La carte Brasil, produite en 1565 par l’école vénitienne et reproduite au début de ce reportage, constitue une évidence de la fonction quasi propagandistique de la cartographie. La précision géographique n’y apparaît pas clairement. Iris Kantor observe : « La toponymie n’est pas très intense, même si toute la côte avait déjà été nommée à cette époque. […] C’est une œuvre destinée à un public profane, peut-être plus pour les commerçants, comme l’indiquent les bateaux ornés d’armoiries de la France et du Portugal. On y voit le commerce du bois pau-brasil, encore sans identification de la souveraineté politique. La région semble être d’accès libre. La représentation des indigènes et leur contact avec l’étranger transmettent cordialité et réciprocité ». « Au fond, les cartes servent de représentation de nous-mêmes », poursuit l’enseignante de l’USP. « L’étude de la cartographie brésilienne post-indépendance, par exemple, met en avant notre vision d’identité nationale basée sur une culture géographique romantique, libérale et naturaliste, qui représente le pays comme un continuum géographique entre l’Amazonie et le fleuve Plata. À cette époque, l’idée du peuple n’était pas si homogène. Ce n’est pas un hasard si les hommes qui ont conquis l’indépendance et constitué l’assise légale du pays étaient liés aux sciences de la nature, à la cartographie, etc. La question géographique a été essentielle dans la création de l’identité nationale ». Un exemple très différent d’utilisation des ressources numériques dans la recherche avec les cartes est en cours à l’Unicamp : il s’agit de l’étude Cartes thématiques de Santana et Bexiga, dérivé du projet Travailleurs au Brésil : identités, droits et politique coordonné par le professeur Silvia Hunold Lara et financé par la FAPESP. L’étude se penche sur le quotidien des travailleurs urbains entre 1870 et 1930 (cf. www.unicamp.br/cecult/mapastematicas). D’après la chercheuse, il est possible de reconstituer le quotidien des habitants des quartiers, qui ne sont « pas dissociés de leur mode de travail et de leurs revendications pour des droits ». [post_title] => La mine des cartes [post_excerpt] => La mine des cartes [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => la-mine-des-cartes [to_ping] => [pinged] => [post_modified] => 2013-05-15 17:33:52 [post_modified_gmt] => 2013-05-15 20:33:52 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=118099 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [3] => stdClass Object ( [ID] => 118135 [post_author] => 73 [post_date] => 2013-05-15 17:42:04 [post_date_gmt] => 2013-05-15 20:42:04 [post_content] => Publié en février 2011 [caption id="attachment_118140" align="aligncenter" width="580"]Folie de Dali dans La maison du docteur Edwardes Folie de Dali dans La maison du docteur Edwardes[/caption] Parmi toutes les formes d’art, le cinéma est celui qui se prête le mieux à la représentation des troubles mentaux. Paranoïaques, psychotiques et autres malades mentaux fascinent ou perturbent le spectateur, parce que la folie interrompt l’ordre immanent du monde et les modalités habituelles de sa perception. Premier du genre publié au Brésil, l’ouvrage Cinema e loucura – Conhecendo os transtornos mentais através dos filmes [Cinéma et folie – Connaissance des toubles mentaux à travers les films, éd. Artmed], de J. Landeira-Fernandez & Elie Cheniaux, propose une classification systématique des troubles mentaux de personnages cinématographiques. Chaque chapitre décrit les aspects cliniques d'un trouble mental donné et offre une présentation commentée d’exemples cinématographiques. Au total, les auteurs se penchent sur 184 films, la plupart d'entre eux très connus du public. J. Landeira-Fernandez, professeur du Département de Psychologie de l'Université Catholique Pontificale de Rio de Janeiro (PUC-RJ), voit ce livre comme « un outil universitaire pour l'enseignement de la psychopathologie et de la psychiatrie ; il fournit des exemples concrets qui, en salle de classe, sont traités de manière plus abstraite ». Et pour Elie Cheniaux, professeur de l'Institut de Psychiatrie de l'Université Fédérale de Rio de Janeiro (UFRJ), « utiliser des films motive l'étudiant et est tout particulièrement intéressant dans les cas d'étudiants qui n'ont pas accès à des patients en chair et en os ». Le rapport entre le cinéma et le psychisme est une évidence, car le septième art représente l'humain sous toutes ses formes – des plus cocasses aux plus sombres. D'un autre côté, le dispositif cinématographique lui-même (la salle obscure où sont projetées les images, avec un spectateur en situation de passivité relative, d'immobilité) détermine un état régressif artificiel qui renvoie au rêve. Si dans le rêve le sujet s'éloigne du réel et est impliqué dans ses images, le spectateur vit quelque chose de similaire au cinéma. En outre, l'expérience du rêve avec ses associations libres peut également être comparée au montage cinématographique qui fait coexister des mondes apparemment hétérogènes. Au-delà de ces analogies, il convient de rappeler que le cinéma et la psychanalyse, issue de la psychiatrie, sont pratiquement nées en même temps : entre la fin du XIXe siècle et le début du XXe. Et tous deux ont révolutionné l'approche de la réalité. Disciple de Freud, Hans Sachs fut l'un des premiers psychanalystes à s'intéresser au cinéma. Jacques Lacan, autre pionnier de la psychanalyse, a effectué dans son séminaire une analyse du personnage principal de Tourments (1953), de Luis Buñuel, un célèbre cas de paranoïa. Flávio Ramos Tambellini, professeur coordonnateur de l'école de cinéma Darcy Ribeiro, de Rio de Janeiro, observe : « La dramaturgie se base sur le conflit. Dans le modèle classique, un film comprend trois actes : l'introduction des personnages, le développement de conflits entre eux et la résolution des conflits. La plupart de ces conflits sont de nature mentale. Un film avec des personnages ‘normaux’, sans difficultés ni conflits, n'attirerait pas l'attention du public. Mais un film avec des figures perturbées, en marge de la normalité, apporte des conflits qui font avancer le récit. Le personnage ‘fou’ est plus cinématographique. La déviance séduit ; la norme, non ». Dans Cinéma et Folie  Connaissance des troubles mentaux à travers les films, les personnages cinématographiques sont envisagés comme des cas cliniques. Le poison (1945), de Billy Wilder, retrace parfaitement la richesse des symptômes présents dans le tableau clinique d'abstinence d'alcool. Annie Hall (1977), de Woody Allen, présente le trouble dysthymique (caractérisé par des symptômes dépressifs moins intenses que ceux observés dans une dépression typique) ainsi que le trouble de l’anxiété généralisée. Cependant, nombreux sont les films ou les troubles mentaux ne sont pas bien représentés, notamment quand ils obéissent à des injonctions artistiques et commerciales et ne visent pas un objectif éducatif. Elie Cheniaux remarque que « les scénaristes et les cinéastes ne sont pas obligés d'être fidèles à la réalité. Le cinéma n'est pas tenu d'être didactique. C'est de l'art, pas de la science ». Mais de telles distorsions ne discréditent pas l'approche proposée par les auteurs. Au contraire. Dans Un homme d'exception (2001), où Ron Howard présente la biographie de John Nash, mathématicien et prix Nobel d'économie, la schizophrénie du personnage est mal décrite. Landeira-Fernandez observe qu’« il a des hallucinations visuelles, cénesthésiques et auditives. Or, les schizophrènes ont des hallucinations unimodales, la plus commune étant la modalité auditive. Dans la réalité, le vrai John Nash ne présentait que des hallucinations auditives. Même si elle est incorrecte, la représentation du symptôme sert déjà d’exemple négatif ». Dans d'autres cas, le personnage a un comportement qui ne rentre dans aucune catégorie diagnostique. Souvent, cette « folie » reflète le sens commun, très différent des symptômes d'un vrai malade mental. Le livre effectue aussi une compilation des films emprunts de ces distorsions. Dans Répulsion (1965), de Roman Polanski, le personnage de Carole - tenu par Catherine Deneuve - a horreur de la pénétration et présente une série de comportements étranges. À quel trouble mental pourrait-on associer ces caractéristiques ? Les troubles de Carole ne rentrent pas dans les catégories décrites dans le Manuel Diagnostique et Statistique des Troubles Mentaux (DSM-IV-TR), qui a servi d'orientation aux auteurs. Néanmoins, les problèmes de diagnostic sont loin d'être une spécificité du cinéma. D'après Cheniaux, « en médecine les maladies sont définies à partir de leurs causes. Mais en psychiatrie les catégories sont décrites seulement à partir des symptômes et cela reste très discutable. Souvent, un même patient présente en même temps les critères diagnostiques de plus d’une catégorie nosologique. Il est pourtant difficile de croire qu'il a trois ou quatre maladies psychiatriques au même moment. C’est donc jusqu'à un certain point quelque chose d'arbitraire ». Au cours des premières décennies du siècle dernier, les « fous » étaient généralement confinés au genre fantastique et la plupart du temps criminels. Avec Le cabinet du docteur Caligari (1919), film classique de l'expressionnisme allemand réalisé par Robert Wiene, la folie entre dans les modalités de représentation cinématographique. De même que dans d'autres films expressionnistes, les décors fortement stylisés et la gestualité brusque des acteurs traduisent symboliquement la mentalité des personnages et leurs états d'âme. Caligari affirme une volonté de pouvoir paranoïaque ; c'est un médecin fou qui hypnotise César, son assistant, pour qu'il commette des crimes. Le personnage principal de Dr Mabuse le joueur (1922), de Fritz Lang, est une autre figure perverse et intelligente de cette époque. Il s'agit d'un psychiatre qui recourt également à l'hypnose pour manipuler les personnes et commettre ses crimes. Mabuse est rongé par le désir de gouverner au moyen de l'argent, tandis que la soif de pouvoir de Caligari est abstraite. La folie de Mabuse et la passivité morbide de ses victimes montrent la décadence de la société allemande de l'époque et le chaos qui régnait alors sur le pays. Dans M le maudit (1931), Fritz Lang s'intéresse de manière plus réaliste à la psychologie des personnages. La figure centrale est un tueur de jeunes femmes, toutefois il est montré avec humanité dans son horreur. Mais la société n'est pas meilleure : devant l'incapacité de la police à l'arrêter, il est « jugé » par d'autres délinquants, préfigurant ainsi ce qui allait se passer en Allemagne quelques mois plus tard avec l'arrivée des nazis au pouvoir. À partir des années 1940, la psychanalyse gagne davantage d'espace dans les milieux de communication. Apparaissent les thrillers psychanalytiques, qui utilisent l'arsenal de la psychanalyse de manière rustique et naïve. Le prototype de ces films est La maison du docteur Edwardes (1945), d'Alfred Hitchcock. Constance (Ingrid Bergman) est une jeune psychiatre d'un asile qui tombe amoureuse du nouveau directeur. Mais très vite elle se rend compte que l'homme qu'elle aime (Gregory Peck) est en fait un malade mental qui se fait passer pour le docteur Edwardes. À partir des rêves du malade et après une séance d'analyse, Constance découvre qu'il a perdu la mémoire et comprend pourquoi il a assumé un crime qu'il n'avait pas commis : il a été témoin de la mort du véritable Edwardes, assassiné par l'ancien directeur de l'asile, et en plus il a été indirectement responsable de la mort de son jeune frère au cours d’un jeu d’enfants. Au-delà de l'angoisse en face de la folie, le film montre l'angoisse de la folie. La peur du personnage est figurée par des rêves (dessinés par Salvador Dali) qui révèlent un monde rempli d'hallucinations et de symboles prétendument produits par l'inconscient. Dans ce film et dans d'autres tournés à la même période, la psychanalyse est réduite à une méthode capable de résoudre les conflits obscurs par le biais du déchiffrage d'un ensemble de signes généralement très clairs. À partir des années 1950, et sous l'impact des horreurs de la Seconde Guerre mondiale, on commence à questionner la réclusion du malade. Dans le même temps surgissent de nouveaux médicaments psychotropes, qui provoquent de graves effets secondaires et amènent beaucoup de patients à refuser le traitement. L'antipsychiatrie qui voit le jour en réaction à la psychiatrie de l'époque occupera une place importante dans les années 1960, lorsque la contre-culture bat son plein. Certains films retracent ce moment avec justesse, à l'exemple de : Family Life (1971), de Ken Loach ; Une femme sous influence (1974), de John Cassavetes ; ou encore Vol au-dessus d'un nid de coucou (1975), de Milos Forman, qui critique une société préférant confiner les malades plutôt que de les aider à soulager leur souffrance, en offrant comme seuls traitements la camisole de force, les électrochocs et les médicaments. Ces films proposent une nouvelle vision du cinéma sur la folie, en s'attachant à dévoiler le poids de la société sur les individus. Certains d'entre eux interrogent la « folie » de cette société et de la famille en posant la question de la normalité. Le grand précurseur de cette approche est Ingmar Bergman, qui a fait de la folie un de ses thèmes obsessionnels. Pourtant, malgré les modifications de représentation de la folie par le cinéma, la grande majorité des films continue à banaliser la folie en privilégiant de vieux clichés qui font des malades mentaux des criminels de film policier ou des nigauds de comédie. [post_title] => Folie artistique [post_excerpt] => Folie artistique [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => folie-artistique [to_ping] => [pinged] => [post_modified] => 2013-05-15 17:44:41 [post_modified_gmt] => 2013-05-15 20:44:41 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=118135 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) [4] => stdClass Object ( [ID] => 118149 [post_author] => 38 [post_date] => 2013-05-15 17:51:21 [post_date_gmt] => 2013-05-15 20:51:21 [post_content] => Publié en août 2011 La société Quacquarelli Symonds (QS), qui évalue et classe annuellement depuis 2004 des universités du monde entier, a publié en juillet 2011 le premier classement mondial séparé par domaines de connaissance (disponible sur le site Internet www.topuniversities.com). Certains cursus brésiliens sont relativement bien placés entre les 200 premiers, en particulier dans les groupes généraux de « sciences sociales » et « arts et humanités ». Les listes spécifient les positions de 1 à 50 puis réunissent en trois groupes, par ordre alphabétique, les institutions qui se situent entre les positions 51-100, 100-150 et 151-200. Six institutions brésiliennes apparaissent dans le calcul général des sciences humaines : deux universités d'état (Université de São Paulo et Unicamp), deux universités fédérales (Université Fédérale de Rio de Janeiro et Université Fédérale de Minas Gerais), la Fondation Getúlio Vargas (FVG) et l'Université Catholique Pontificale de Rio de Janeiro (PUC-Rio). À noter également la présence de deux universités d'autres pays latino-américains (Université Nationale Autonome du Mexique et Université Catholique Pontificale du Chili). De l’Université de São Paulo (USP), la philosophie et la sociologie se sont classées dans le groupe 51-100, et la géographie et les relations internationales dans le groupe 151-200. L'Université de Campinas (Unicamp) se situe entre 101-150 en philosophie et entre 151-200 en statistiques et recherche opérationnelle. Avec ces deux mêmes cursus, l’Université Fédérale de Rio de Janeiro occupe les positions inverses. La Fondation Gétulio Vargas apparaît entre 151-200 pour les relations internationales et l’Université Fédérale de Minas Gerais est dans le même groupe pour la philosophie. À titre de comparaison, seules trois universités sont représentées dans les domaines des sciences exactes et biomédicales : USP (agronomie entre 51 et 100 et ingénierie civile entre 151 et 200) ; Unicamp (ingénierie électrique et électronique, entre 151 et 200) ; et PUC-Rio (ingénierie civile, entre 151 et 200). D'après Modesto Florenzano, vice directeur de la Faculté de Philosophie, Lettres et Sciences Humaines (FFLCH) de l’USP – qui abrite trois départements cités dans le classement (philosophie, sociologie et géographie) –, « les critères qui orientent ces classements ne peuvent être considérés comme uniques ou même infaillibles, cependant il serait absurde de méconnaître leur utilité et la visibilité qu'ils apportent ». Spécialiste en scientométrie, l'étude des aspects quantitatifs de la science et de la production scientifique, Rogério Meneghini explique que « la plus grande finalité de ces listes – et c’est là-dessus qu'elles sont économiquement basées –, c’est d'offrir aux personnes qui ont l'intention d'entrer dans les institutions un panorama des universités. Par conséquent, faire une recherche par discipline est une bonne initiative. […] Les classements n'ont pas été faits pour donner une vision large de la qualité des universités, mais elles ont fini par servir à cela ». Située au Royaume-Uni avec des bureaux dans plusieurs pays, la QS élabore intentionnellement ses classements pour aider les étudiants qui veulent étudier en dehors de leur ville ou, surtout, de leur pays d'origine. C'est pour cette raison qu'elle met particulièrement l'accent sur le degré d'internationalisation des institutions évaluées. Le dernier classement a été fait sur la base de trois grands critères : réputation universitaire (des professeurs ont été invités à évaluer des cours et des universités qui ne sont pas les leurs), réputation par les employeurs (sur la qualité des professionnels sortis des institutions) et nombre de citations dans des publications universitaires. La société QS considère que l'inclusion de l'item « employabilité » est le grand différentiel de ses classements, même si les critiques estiment qu'il s'agit d'un indice qui n'a pas nécessairement de rapport avec la qualité de la production intellectuelle des universités. Ben Stower, chef de l'unité d'information de la QS, explique : « Pour notre public cible, il serait disproportionné d'intensifier encore plus l'accent déjà donné à la recherche universitaire. En outre, les autres classements le font déjà, en partie par le type de données disponibles internationalement et en partie par rapport à l'histoire de leur apparition. Le premier classement international a été créé par le gouvernement chinois [via l'Université de Shanghai] pour distinguer les prouesses de la recherche scientifique dans leurs universités en comparaison avec celles de l'Occident ». Toutefois, le classement de la QS n'est pas non plus exempt de données biaisées. Un premier coup d’œil sur les listes suffit pour constater la présence massive et prédominante d'universités de pays de langue anglaise (pas seulement les États-Unis et le Royaume-Uni, mais aussi le Canada et l'Australie). Dans le classement de philosophie, par exemple, les institutions des pays qui ont le plus contribué historiquement (et jusqu'à aujourd'hui) à ce champ du savoir, la France et l'Allemagne, sont peu et faiblement représentées. D'où l'interrogation de Ricardo Ribeiro Terra, professeur du Département de Philosophie de la FFLCH-USP et coordinateur du domaine des sciences humaines et sociales de la FAPESP (philosophie) : « Comment l'université de Frankfurt, qui compte Jürgen Habermas et Axel Honneth, peut-elle se trouver en bas de la liste ? ». Ricardo R. Terra observe également une quantité faible ou nulle d'articles dans des publications internationales de certains cursus brésiliens, y compris bien évalués comme celui de sociologie : « Cela soulève des doutes quant à l'ensemble de revues choisies et amène à supposer qu'on se limite à la philosophie analytique du type hégémonique des États-Unis ». Financement – D’un autre côté, la langue anglaise comme paramètre international reste une donnée incontournable. D’après Rogério Meneghini, « l'intérêt d'étudiants étrangers pour venir étudier au Brésil est perceptible, en grande partie pour la possibilité de réussir un financement pour la recherche à un stade initial de la carrière universitaire. Même la bourse paraît attractive, mais la majorité ne vient pas parce que le portugais est vu comme une barrière ». Dans ce sens, le poids attribué par la QS à l'internationalisation dans ses évaluations est vu comme correcte – et parallèlement, tous sont d'accord pour dire qu'il y a encore peu d'étudiants étrangers dans les universités brésiliennes. Pour Stower, « les principales universités ont toujours été des points de rencontre des meilleurs esprits du monde. Une grande partie de la mise en avant de l'internationalisation n'est pas seulement effectuée par les institutions individuellement, mais aussi par des politiques gouvernementales. Dernièrement, les universités sont devenues centrales pour la politique économique, parce que les gouvernements se sont aperçus que recherche et innovation jouent des rôles-clés dans la stimulation de la croissance ». Mais peser la qualité des cours à partir de critères numériques d'internationalisation n'est pas chose facile. Ricardo R. Terra observe que « dans le domaine des sciences sociales, la plupart des travaux se réfèrent à des questions brésiliennes, et ils ne sont naturellement pas diffusés dans des publications étrangères. Il faudrait penser à des critères qui évaluent également l'impact interne ». En même temps, les caractéristiques régionales peuvent être à l'origine du prestige de certaines recherches brésiliennes. « La haute complexité territoriale et sociale du Brésil a exigé la création d'une théorie sophistiquée », affirme Antonio Carlos Robert de Moraes du Département de Géographie de la FFLCH-USP et coordonnateur du domaine des sciences humaines et sociales de la FAPESP (géographie). Les observateurs des classements internationaux sont unanimes pour affirmer que vu leur création récente, les critères doivent encore subir plusieurs améliorations. Même la société QS est d'accord sur ce point, et la décision de créer un classement par domaine a eu pour objectif de rendre plus spécifiques et utiles les classements. Paula Montero, professeur du département d'anthropologie de la FFLCH-USP et coordinatrice adjointe de la direction scientifique de la FAPESP, pense que « la question la plus délicate concerne la possibilité de produire des critères compatibles avec les différentes façons de produire de la connaissance dans les diverses disciplines ». Elle considère le critère de consultation des pairs (réputation universitaire) comme le plus important : « Quand un domaine de connaissance est suffisamment développé et diversifié, ce type d'évaluation externe fonctionne très bien ». Même s'il est le mieux établi, le critère de citations dans des publications universitaires est également la cible de restrictions. « Jusqu'à aujourd'hui, je n'ai pas vu de mesures qui tente d'évaluer la qualité de la recherche », dit Meneghini. D'autre part, les données sur cette question sont recueillies en nombres bruts, ce qui fait que des universités immenses comme l’USP sont avantagées dans la compétition. Modestie – Malgré tout, le bon classement des cours de la FFLCH-USP ne surprend pas. Robert de Moraes observe : « Sans fausse modestie, le Département de Géographie de l’USP forme le reste du pays et donne le ton de la discipline en Amérique latine ». « Notre présence à l'étranger est très expressive et nous organisons une grande quantité de rencontres internationales », poursuit Ricardo R. Terra. Cela est en partie dû à l'origine de la FFLCH, qui fut le noyau central de la création de l’USP dans les années 1930 avec la venue de professeurs étrangers et en particulier français. « Nous avons déjà commencé internationalisés et nous sommes venus d'une forte tradition humaniste », indique Modesto Florenzano. Du point de vue de Paula Montero, « les sciences sociales au Brésil ont toujours eu un niveau relativement bon pour des raisons historiques. Néanmoins, le déclin de la qualité de l'école publique, la massification de l'enseignement supérieur, le manque d'évaluation de la performance des universités et l'isolement relatif des sciences humaines par rapport au débat international sont des facteurs qui ont joué contre l'expansion et la consolidation de cette qualité ». La tradition se reflète même dans un cursus récemment créé et qui ne fait pas partie de la FFLCH, celui de l'Institut des Relations Internationales (IRI). Maria Hermínia Brandão Tavares Almeida, directrice de l’institut, explique : « Je vais être très sincère. Je crois que dans ce classement nous avons été entraînés dans le sillage du Département de Sciences Politiques, bien plus ancien et connu que l’IRI, qui a été créé en 2004 et ne dispose d'un troisième cycle que depuis deux ans ». Ce nonobstant, la qualité du cours se reflète d'une certaine manière dans le classement. Finalement, la présence sur des listes comme celles de la QS est à la fois importante et relative. Marcelo Ridenti, diplômé en sociologie de l’USP, professeur de l’Unicamp et coordinateur du domaine des sciences humaines et sociales de la FAPESP (sociologie), dit que « seules des universités peu consistantes se laissent diriger par des demandes de ce type de recherche, mais elles peuvent être un élément à prendre en compte dans les directives universitaires ». Menegheni, qui a participé aux commissions d'évaluation de l'université avec la présence de spécialistes étrangers, estime que « la procédure d'évaluation doit partir de la propre université, à l'exemple des collectes de données que fait périodiquement l’USP ». Florenzano est d'accord : « Nous devons surtout diagnostiquer la qualité des premier et deuxième cycles, c'est le point de départ le plus important ». [post_title] => Excellence en sciences humaines [post_excerpt] => Excellence en sciences humaines [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => excellence-en-sciences-humaines [to_ping] => [pinged] => [post_modified] => 2013-05-15 18:03:01 [post_modified_gmt] => 2013-05-15 21:03:01 [post_content_filtered] => [post_parent] => 0 [guid] => http://revistapesquisa.fapesp.br/?p=118149 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 ) ) ) [categories] => Array ( [covid-19] => WP_Term Object ( [term_id] => 3561 [name] => Covid-19 [slug] => covid-19 [term_group] => 0 [term_taxonomy_id] => 3563 [taxonomy] => category [description] => [parent] => 75 [count] => 89 [filter] => raw [term_order] => 0 [cat_ID] => 3561 [category_count] => 89 [category_description] => [cat_name] => Covid-19 [category_nicename] => covid-19 [category_parent] => 75 ) [butantan-120-anos] => WP_Term Object ( [term_id] => 3686 [name] => Butantan – 120 Anos [slug] => butantan-120-anos [term_group] => 0 [term_taxonomy_id] => 3688 [taxonomy] => category [description] => [parent] => 75 [count] => 4 [filter] => raw [term_order] => 0 [cat_ID] => 3686 [category_count] => 4 [category_description] => [cat_name] => Butantan – 120 Anos [category_nicename] => butantan-120-anos [category_parent] => 75 ) [pesquisa-fapesp-20-anos] => WP_Term Object ( [term_id] => 2699 [name] => Pesquisa Fapesp 20 anos [slug] => pesquisa-fapesp-20-anos [term_group] => 0 [term_taxonomy_id] => 2701 [taxonomy] => category [description] => [parent] => 75 [count] => 12 [filter] => raw [term_order] => 0 [cat_ID] => 2699 [category_count] => 12 [category_description] => [cat_name] => Pesquisa Fapesp 20 anos [category_nicename] => pesquisa-fapesp-20-anos [category_parent] => 75 ) [ufrj-100-anos] => WP_Term Object ( [term_id] => 3501 [name] => UFRJ - 100 anos [slug] => ufrj-100-anos [term_group] => 0 [term_taxonomy_id] => 3503 [taxonomy] => category [description] => [parent] => 75 [count] => 10 [filter] => raw [term_order] => 0 [cat_ID] => 3501 [category_count] => 10 [category_description] => [cat_name] => UFRJ - 100 anos [category_nicename] => ufrj-100-anos [category_parent] => 75 ) [politique-st] => WP_Term Object ( [term_id] => 1191 [name] => Politique S&T [slug] => politique-st [term_group] => 0 [term_taxonomy_id] => 1194 [taxonomy] => category [description] => [parent] => 1173 [count] => 45 [filter] => raw [term_order] => 0 [cat_ID] => 1191 [category_count] => 45 [category_description] => [cat_name] => Politique S&T [category_nicename] => politique-st [category_parent] => 1173 ) [sciences] => WP_Term Object ( [term_id] => 1180 [name] => Sciences [slug] => sciences [term_group] => 0 [term_taxonomy_id] => 1183 [taxonomy] => category [description] => [parent] => 1173 [count] => 82 [filter] => raw [term_order] => 0 [cat_ID] => 1180 [category_count] => 82 [category_description] => [cat_name] => Sciences [category_nicename] => sciences [category_parent] => 1173 ) [technologie] => WP_Term Object ( [term_id] => 1194 [name] => Technologie [slug] => technologie [term_group] => 0 [term_taxonomy_id] => 1197 [taxonomy] => category [description] => [parent] => 1173 [count] => 56 [filter] => raw [term_order] => 0 [cat_ID] => 1194 [category_count] => 56 [category_description] => [cat_name] => Technologie [category_nicename] => technologie [category_parent] => 1173 ) [humanites] => WP_Term Object ( [term_id] => 1188 [name] => Humanités [slug] => humanites [term_group] => 0 [term_taxonomy_id] => 1191 [taxonomy] => category [description] => [parent] => 1173 [count] => 45 [filter] => raw [term_order] => 0 [cat_ID] => 1188 [category_count] => 45 [category_description] => [cat_name] => Humanités [category_nicename] => humanites [category_parent] => 1173 ) ) ) -->

Politique S&T

Sciences

Technologie

Humanités