{"id":492628,"date":"2023-10-05T18:27:59","date_gmt":"2023-10-05T21:27:59","guid":{"rendered":"https:\/\/revistapesquisa.fapesp.br\/?p=492628"},"modified":"2023-10-05T18:27:59","modified_gmt":"2023-10-05T21:27:59","slug":"deepfake","status":"publish","type":"post","link":"https:\/\/revistapesquisa.fapesp.br\/fr\/deepfake\/","title":{"rendered":"Deepfake"},"content":{"rendered":"<p>En septembre, une vid\u00e9o contrefaite du <em>Jornal Nacional<\/em> (Journal National), principal programme d&#8217;information de la chaine de t\u00e9l\u00e9vision Globo, a fait le tour des r\u00e9seaux sociaux. Dans cette vid\u00e9o, les pr\u00e9sentateurs William Bonner et Renata Vasconcellos pr\u00e9sentaient les r\u00e9sultats d\u2019un sondage relatif aux intentions de vote pour la Pr\u00e9sidence, mais les donn\u00e9es des candidats \u00e9taient invers\u00e9es, tant sur les graphiques que dans les commentaires des pr\u00e9sentateurs. Le lendemain, la cha\u00eene d&#8217;information a apport\u00e9 un d\u00e9menti en signalant que la vid\u00e9o avait \u00e9t\u00e9 utilis\u00e9e dans le but de d\u00e9sinformer la population et qu&#8217;il s&#8217;agissait d&#8217;un deepfake, une technique qui fait appel \u00e0 l&#8217;intelligence artificielle pour remanier en profondeur un contenu num\u00e9rique. Il est ainsi possible, par exemple, de modifier num\u00e9riquement le visage d&#8217;une personne ou de reproduire sa voix, en lui faisant faire ce qu&#8217;elle n&#8217;a pas fait o\u00f9 dire ce qu&#8217;elle n&#8217;a pas dit.<\/p>\n<p>Au mois d&#8217;ao\u00fbt, une autre vid\u00e9o du <em>Jornal Nacional<\/em> qui manipulait \u00e9galement les r\u00e9sultats d&#8217;un sondage pour la Pr\u00e9sidence avec un montage similaire, a \u00e9t\u00e9 publi\u00e9e sur le r\u00e9seau social TikTok et a atteint 2,5 millions de vues, selon le projet Comprova, une initiative regroupant des journalistes issus de 43 m\u00e9dias br\u00e9siliens en mati\u00e8re de fact-checking. \u00ab\u00a0Il est possible qu&#8217;une m\u00e9thode de deepfake ait \u00e9t\u00e9 utilis\u00e9e dans ces vid\u00e9os, mais il faudrait proc\u00e9der \u00e0 une analyse plus approfondie. Le plus important pour nous est de savoir qu&#8217;elles sont fausses\u00a0\u00bb, observe l&#8217;informaticien Anderson Rocha, directeur de l&#8217;Institut Informatique de l&#8217;Universit\u00e9 Publique de Campinas (Unicamp), o\u00f9 il coordonne le Laboratoire d&#8217;Intelligence Artificielle (Recod.ai). Le chercheur \u00e9tudie des mani\u00e8res permettant d\u2019identifier des falsifications malveillantes de photos et de vid\u00e9os, y compris de deepfakes, \u00e9galement appel\u00e9es m\u00e9dias synth\u00e9tiques.<\/p>\n<p>Au mois de mars de cette ann\u00e9e, peu de temps apr\u00e8s le d\u00e9but de la guerre entre la Russie et l&#8217;Ukraine, le pr\u00e9sident ukrainien Volodymyr Zelensky a \u00e9t\u00e9 victime d&#8217;un deepfake. Une vid\u00e9o o\u00f9 il demandait aux Ukrainiens de d\u00e9poser les armes et de rentrer chez eux comme si le pays allait se rendre, a circul\u00e9 sur les r\u00e9seaux sociaux, obligeant Facebook et YouTube \u00e0 la supprimer apr\u00e8s avoir constat\u00e9 qu\u2019il s\u2019agissait d\u2019une contrefa\u00e7on. Sur les images, le visage du pr\u00e9sident apparaissait sur un corps qui bougeait \u00e0 peine et v\u00eatu d&#8217;un T-shirt vert.<\/p>\n<p>Dans certains cas, comme pour les vid\u00e9os du <em>Jornal Nacional<\/em>, il est tr\u00e8s facile de se rendre compte qu&#8217;elles ont \u00e9t\u00e9 modifi\u00e9es car les informations originales sont facilement v\u00e9rifiables. Mais ce n&#8217;est pas toujours le cas. Confront\u00e9 aux m\u00e9dias synth\u00e9tiques, le dicton \u00ab\u00a0il faut le voir pour le croire \u00bb perd tout son sens, et l&#8217;intelligence artificielle peut aussi devenir une alli\u00e9e.<\/p>\n<p>\u00ab G\u00e9n\u00e9ralement, les vid\u00e9os synth\u00e9tiques sont con\u00e7ues en deux temps, tout d\u2019abord en utilisant une plateforme deepfake pour changer le visage ou synchroniser la bouche, puis en r\u00e9alisant un montage \u00e0 l\u2019aide de logiciels d\u2019\u00e9dition vid\u00e9o\u00a0\u00bb, explique Anderson Rocha. Les personnes qui savent quoi chercher d\u00e9tectent g\u00e9n\u00e9ralement une faille dans le programme utilis\u00e9 pour produire le trucage, comme un jeu de lumi\u00e8res diff\u00e9rent ou un contraste entre la vid\u00e9o originale et le nouveau visage qui a \u00e9t\u00e9 ins\u00e9r\u00e9.<\/p>\n<p>C&#8217;est comme si l&#8217;on d\u00e9coupait un visage sur une photo et qu&#8217;on le pla\u00e7ait sur une autre o\u00f9 l\u2019incidence de la lumi\u00e8re et la photo captur\u00e9e par l&#8217;appareil photo sont diff\u00e9rentes. Ces traces sont autant d\u2019indices d\u00e9tect\u00e9s gr\u00e2ce aux techniques de l\u2019informatique l\u00e9gale, un domaine de recherche qui a pris de l&#8217;ampleur ces derni\u00e8res ann\u00e9es et dont Anderson Rocha fait partie.<\/p>\n<p>Le chercheur a mis au point, en collaboration avec des coll\u00e8gues de l&#8217;Universit\u00e9 de Hong Kong, un algorithme permettant de d\u00e9tecter simultan\u00e9ment une \u00e9ventuelle manipulation des visages et, le cas \u00e9ch\u00e9ant, de localiser les r\u00e9gions modifi\u00e9es. Il peut s&#8217;agir, par exemple, du visage entier ou seulement de la bouche, de la r\u00e9gion des yeux ou des cheveux. \u00ab\u00a0Le taux de r\u00e9ussite moyen a \u00e9t\u00e9 de 88% pour les vid\u00e9os \u00e0 faible r\u00e9solution et de 95% pour les vid\u00e9os \u00e0 haute r\u00e9solution\u00a0\u00bb, explique Anderson Rocha. Pour ce faire, ils ont test\u00e9 un \u00e9chantillon de 112 000 visages dont une moiti\u00e9 \u00e9tait r\u00e9elle et l\u2019autre manipul\u00e9e \u00e0 l\u2019aide de quatre logiciels de deepfake. La m\u00e9thode r\u00e9v\u00e8le \u00e9galement si l&#8217;image a \u00e9t\u00e9 cr\u00e9\u00e9e de toutes pi\u00e8ces, et non \u00e0 partir d&#8217;une photographie existante. Les r\u00e9sultats ont \u00e9t\u00e9 publi\u00e9s en avril 2022 dans la revue <em>Transactions on Information Forensics and Security<\/em>.<\/p>\n<blockquote><p>Il est possible de changer le visage d\u2019une personne ou d\u2019imiter sa voix en lui faisant dire ce qu\u2019elle n\u2019a pas dit<\/p><\/blockquote>\n<p>Selon l&#8217;informaticien, les nouveaux algorithmes qui permettent de d\u00e9tecter des traces de manipulation dans les deepfakes se basent principalement sur les indices laiss\u00e9s par des logiciels plus connus et qui correspondent \u00e0 deux cat\u00e9gories, ceux qui permettent de changer les visages et ceux qui permettent de modifier les expressions faciales. L&#8217;un de ces logiciels est r\u00e9put\u00e9 pour pr\u00e9senter des d\u00e9fauts dans la synchronisation de la bouche, l&#8217;algorithme est alors programm\u00e9 pour rechercher cette erreur sp\u00e9cifique. \u00ab\u00a0Ceci est probl\u00e9matique car si nous ne connaissons pas le logiciel de deepfake utilis\u00e9, ces traces seront difficilement d\u00e9tectables et de nouveaux logiciels apparaissent tous les jours\u00a0\u00bb, observe Anderson Rocha.<\/p>\n<p>Anderson Rocha et ses coll\u00e8gues ont donc entra\u00een\u00e9 leur nouvel algorithme \u00e0 d\u00e9tecter des traces sans avoir \u00e0 conna\u00eetre le logiciel qui produit le deepfake. \u00ab\u00a0Nous partons de l&#8217;id\u00e9e que, quel que soit le programme, il va laisser un bruit, un \u00e9l\u00e9ment qui ne correspond pas au reste de l&#8217;image\u00a0\u00bb. La m\u00e9thode op\u00e8re sur deux fronts en recherchant des signatures de bruit, c&#8217;est-\u00e0-dire, des changements subtils dans le contour du visage, par exemple, et en identifiant la signature s\u00e9mantique, qui peut \u00eatre une anomalie au niveau de la couleur, de la texture ou de la forme. \u00ab\u00a0L&#8217;algorithme automatise le travail que ferait un sp\u00e9cialiste et qui consiste \u00e0 d\u00e9tecter des anomalies, comme des contrastes de lumi\u00e8re\u00a0\u00bb, dit-il. \u00ab\u00a0La prochaine \u00e9tape sera de le tester avec des vid\u00e9os manipul\u00e9es par un plus grand nombre de logiciels afin de confirmer son efficacit\u00e9\u00a0\u00bb.<\/p>\n<p>Ce type d&#8217;algorithme de d\u00e9tection peut \u00eatre utilis\u00e9 \u00e0 des fins diverses, telle la lutte contre l&#8217;utilisation malveillante de deepfakes. Anderson Rocha fait partie d&#8217;un projet international, appel\u00e9 Semantic Forensics, aux c\u00f4t\u00e9s de chercheurs des universit\u00e9s de Sienne, de l\u2019\u00c9cole Polytechnique de Milan, en Italie, et de Notre-Dame, aux \u00c9tats-Unis, avec le soutien du D\u00e9partement Am\u00e9ricain de la D\u00e9fense. L&#8217;objectif est de d\u00e9velopper des outils automatis\u00e9s qui d\u00e9tectent ces contrefa\u00e7ons. \u00ab\u00a0Nous avons d\u00e9j\u00e0 vu des cas de vid\u00e9os modifi\u00e9es relatives \u00e0 des exercices militaires de certains pays qui multipliaient leur nombre de missiles pour \u00e9taler leur puissance militaire \u00bb, dit-il.<\/p>\n<p>Ces algorithmes peuvent \u00e9galement se r\u00e9v\u00e9ler utiles dans les cas de deepfakes politiques, comme dans l&#8217;\u00e9pisode du pr\u00e9sident ukrainien, ou m\u00eame de deepfakes pornographiques. C&#8217;est \u00e0 partir des films pornographiques que cette m\u00e9thode s&#8217;est fait conna\u00eetre, fin 2017. \u00c0 l&#8217;\u00e9poque, certains internautes ont commenc\u00e9 \u00e0 ins\u00e9rer des visages de c\u00e9l\u00e9brit\u00e9s dans des sc\u00e8nes de films \u00e0 caract\u00e8re sexuel. En septembre 2019, 96% des deepfakes r\u00e9pertori\u00e9s sur internet concernaient des contenus pornographiques non consensuels, selon une enqu\u00eate de DeepTrace Labs, une entreprise de cybers\u00e9curit\u00e9 n\u00e9erlandaise. Les principales victimes \u00e9taient des femmes, principalement des actrices, mais il y avait \u00e9galement des personnes qui n&#8217;\u00e9taient pas connues. La chanteuse Anitta a \u00e9galement \u00e9t\u00e9 victime d&#8217;un deepfake pornographique au mois de juillet de cette ann\u00e9e. La vid\u00e9o originale avait d\u00e9j\u00e0 \u00e9t\u00e9 utilis\u00e9e pour produire des images contrefaites utilisant le visage de l&#8217;actrice Angelina Jolie.<\/p>\n<p>Le Br\u00e9sil est d\u00e9j\u00e0 victime de deepfakes et il est n\u00e9cessaire de les d\u00e9mentir, selon la journaliste Cristina Tard\u00e1guila, directrice de programme du Centre International des Journalistes (ICFJ) et fondatrice de l&#8217;Agence Lupa, sp\u00e9cialis\u00e9e dans la v\u00e9rification de faits. Les programmes permettant de d\u00e9tecter les m\u00e9dias synth\u00e9tiques peuvent \u00eatre des alli\u00e9s pr\u00e9cieux pour les journalistes et les v\u00e9rificateurs de faits qui travaillent contre la montre. \u00ab\u00a0Quand on a affaire \u00e0 de fausses informations, il faut \u00eatre rapide. Il faut donc investir davantage dans l&#8217;intelligence artificielle, dans des outils qui permettent de d\u00e9tecter et de r\u00e9pertorier plus rapidement ces faux contenus. Nous parviendrons ainsi \u00e0 \u00e9courter le d\u00e9lai entre la propagation de la contrefa\u00e7on et le r\u00e9sultat du fact-checking \u00bb, explique-t-elle.<\/p>\n<p>\u00ab\u00a0Les deepfakes sont le summum des fake news. Ils peuvent tromper plus facilement, car s&#8217;il s&#8217;agit d&#8217;une vid\u00e9o, la personne regarde cette sc\u00e8ne \u00bb, observe la journaliste Magaly Prado, qui suit une formation postdoctorale \u00e0 l&#8217;Institut d&#8217;\u00c9tudes Avanc\u00e9es de l&#8217;Universit\u00e9 de S\u00e3o Paulo (IEA-USP). \u00ab\u00a0Le format audio peut \u00e9galement \u00eatre cr\u00e9\u00e9 de mani\u00e8re artificielle\u00a0\u00bb, dit-elle. Elle est \u00e9galement l&#8217;auteur du livre <em>Fake news et intelligence artificielle : le pouvoir des algorithmes dans la guerre de la d\u00e9sinformation<\/em>, publi\u00e9 en juillet par Edi\u00e7\u00f5es 70.<\/p>\n<p>Elle estime que les deepfakes strictement audio, m\u00eame s&#8217;ils sont moins connus et moins courants, peuvent facilement se propager sur des plateformes telles que WhatsApp, un m\u00e9dia largement utilis\u00e9 par les Br\u00e9siliens. Ils suivent une logique semblable \u00e0 celle des vid\u00e9os, car avec des logiciels chaque fois plus accessibles et performants, il est possible de simuler la voix de quelqu&#8217;un. Les principales victimes sont des personnalit\u00e9s publiques, dont la voix est largement disponible sur Internet. Cette technique peut \u00e9galement \u00eatre utilis\u00e9e dans le cadre d\u2019escroqueries financi\u00e8res. \u00ab Il y a d\u00e9j\u00e0 eu des cas comme celui d\u2019un employ\u00e9 d&#8217;une entreprise technologique qui avait re\u00e7u un message vocal d&#8217;un cadre sup\u00e9rieur lui demandant un transfert d&#8217;esp\u00e8ces. Il a toutefois eu des soup\u00e7ons et le message a \u00e9t\u00e9 ensuite analys\u00e9 par une entreprise sp\u00e9cialis\u00e9e. Il s&#8217;est alors av\u00e9r\u00e9 qu&#8217;il s&#8217;agissait d&#8217;un message \u00e9labor\u00e9 \u00e0 l&#8217;aide d&#8217;une intelligence artificielle \u00bb, explique-t-il.<\/p>\n<div id=\"attachment_492633\" style=\"max-width: 1210px\" class=\"wp-caption alignnone\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-492633 size-full\" src=\"https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2023\/09\/SITE_DeepFake-2-1140.jpg\" alt=\"\" width=\"1200\" height=\"300\" srcset=\"https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2023\/09\/SITE_DeepFake-2-1140.jpg 1200w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2023\/09\/SITE_DeepFake-2-1140-250x63.jpg 250w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2023\/09\/SITE_DeepFake-2-1140-700x175.jpg 700w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2023\/09\/SITE_DeepFake-2-1140-120x30.jpg 120w\" sizes=\"auto, (max-width: 1200px) 100vw, 1200px\" \/><p class=\"wp-caption-text\"><span class=\"media-credits-inline\">Reproduction<\/span>Dans une vid\u00e9o contrefaite, le pr\u00e9sident ukrainien Volodymyr Zelensky a appel\u00e9 ses compatriotes \u00e0 d\u00e9poser les armes<span class=\"media-credits\">Reproduction<\/span><\/p><\/div>\n<p>Le journaliste Bruno Sartori, directeur de la soci\u00e9t\u00e9 FaceFactory, explique que produire des deepfakes bien faits, tant audio que vid\u00e9o, n&#8217;est pas pour autant si simple. Son entreprise produit des m\u00e9dias synth\u00e9tiques \u00e0 usage commercial et fournit des contenus pour des \u00e9missions humoristiques sur les cha\u00eenes de t\u00e9l\u00e9vision Globo et SBT.<\/p>\n<p>Il a travaill\u00e9 en 2021 sur une publicit\u00e9 pour Samsung dans laquelle la pr\u00e9sentatrice Ma\u00edsa, d\u00e9j\u00e0 adulte, interagissait avec sa version d&#8217;elle-m\u00eame \u00e9tant enfant. Cette vid\u00e9o a \u00e9t\u00e9 produite avec des techniques de deepfake montrant une petite fille virtuelle dansant, jouant et lan\u00e7ant un ordinateur portable vers le haut. \u00c0 un autre moment, il a d\u00fb ins\u00e9rer le visage d&#8217;un acteur sur celui d&#8217;un cascadeur. \u00ab\u00a0Pour bien entra\u00eener une intelligence artificielle, il faut avoir une bonne banque d&#8217;images et de sons de la personne que l&#8217;on souhaite imiter. Les bons logiciels permettant un traitement de haute qualit\u00e9 doivent \u00e9galement disposer de param\u00e8tres avanc\u00e9s. Dans le cas contraire, des d\u00e9fauts visibles peuvent appara\u00eetre sur le visage ou, dans le cas de l&#8217;audio, une voix robotique\u00a0\u00bb, explique-t-il.<\/p>\n<p>Selon lui, les vid\u00e9os du faux sondage du <em>Jornal Nacional<\/em> n&#8217;ont pas \u00e9t\u00e9 modifi\u00e9es \u00e0 l&#8217;aide d&#8217;une intelligence artificielle. D&#8217;apr\u00e8s son analyse, elles ont fait l\u2019objet un montage classique, en coupant et en inversant l&#8217;ordre des audios. \u00ab\u00a0Il s\u2019agit de <em>shallowfakes<\/em>, mais comme ils sont bien faits, ils peuvent facilement tromper les gens\u00a0\u00bb, d\u00e9clare Bruno Sartori. Il estime que d\u2019ici quelques ann\u00e9es, ces programmes seront plus l\u00e9gers, plus intelligents et plus accessibles.<\/p>\n<p>Il y a plusieurs moyens de se prot\u00e9ger de la d\u00e9sinformation num\u00e9rique. L&#8217;un d&#8217;entre eux est de se renseigner sur les licences d&#8217;utilisation et sur le niveau de confidentialit\u00e9 des applications gratuites les plus diverses utilis\u00e9es au quotidien, comme celles qui sollicitent un acc\u00e8s aux photos de l&#8217;utilisateur pour produire des effets amusants, ou celles qui peuvent enregistrer sa voix. Selon Anderson Rocha, de l&#8217;Unicamp, de nombreuses applications stockent une grande quantit\u00e9 de donn\u00e9es qui peuvent \u00eatre partag\u00e9es \u00e0 d&#8217;autres fins, comme pour l\u2019entra\u00eenement de logiciels de deepfakes.<\/p>\n<p>L\u2019\u00e9ducation aux m\u00e9dias est un autre aspect essentiel. \u00ab\u00a0Bien qu&#8217;il y ait de nombreux logiciels qui nous permettent de d\u00e9celer les contrefa\u00e7ons, la premi\u00e8re chose \u00e0 faire est de se m\u00e9fier de ce que l\u2019on re\u00e7oit sur les r\u00e9seaux sociaux. Il faut \u00e9galement v\u00e9rifier les sources d&#8217;information et se renseigner \u00e0 leur sujet \u00bb, conclut-il.<\/p>\n<p class=\"bibliografia separador-bibliografia\"><strong>Projet<\/strong><br \/>\nD\u00e9j\u00e0 vu : Coh\u00e9rence temporelle, spatiale et caract\u00e9risation des donn\u00e9es h\u00e9t\u00e9rog\u00e8nes pour l&#8217;analyse et l&#8217;interpr\u00e9tation de l&#8217;int\u00e9grit\u00e9. (<a href=\"https:\/\/bv.fapesp.br\/pt\/auxilios\/98398\/deja-vu-coerencia-temporal-espacial-e-de-caracterizacao-de-dados-heterogeneos-para-analise-e-interpr\/\" target=\"_blank\" rel=\"noopener\">n\u00ba 17\/12646-3<\/a>); <strong>Modalit<\/strong><strong>\u00e9<\/strong> Projet Th\u00e9matique ; <strong>Chercheur responsable <\/strong>Anderson Rocha; <strong>Investissement<\/strong> 1\u00a0912 168,25 reais BRL.<\/p>\n<p class=\"bibliografia\"><strong>Article scientifique<\/strong><br \/>\nKONG, C. <em>et al<\/em>. <a href=\"https:\/\/ieeexplore.ieee.org\/abstract\/document\/9764682\" target=\"_blank\" rel=\"noopener\">Detect and locate: Exposing face manipulation by semantic- and noise-level telltales.<\/a> <strong>Transactions on Information Forensics and Security<\/strong>. v. 17. avr. 2022.<\/p>\n<p class=\"bibliografia\"><strong>Livre<\/strong><br \/>\nPRADO, M. <strong>Fake news et intelligence artificielle: Le pouvoir des algorithmes dans la guerre de la d\u00e9sinformation<\/strong>. S\u00e3o Paulo : Edi\u00e7\u00f5es 70, 2022.<\/p>\n","protected":false},"excerpt":{"rendered":"Un algorithme d\u00e9tecte des images et des vid\u00e9os modifi\u00e9es gr\u00e2ce \u00e0 l&#8217;intelligence artificielle, la nouvelle \u00e9tape technologique au service de la d\u00e9sinformation","protected":false},"author":684,"featured_media":492629,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"_exactmetrics_skip_tracking":false,"_exactmetrics_sitenote_active":false,"_exactmetrics_sitenote_note":"","_exactmetrics_sitenote_category":0,"footnotes":""},"categories":[1194],"tags":[],"coauthors":[2721],"class_list":["post-492628","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-technologie"],"acf":[],"_links":{"self":[{"href":"https:\/\/revistapesquisa.fapesp.br\/fr\/wp-json\/wp\/v2\/posts\/492628","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/revistapesquisa.fapesp.br\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/revistapesquisa.fapesp.br\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/fr\/wp-json\/wp\/v2\/users\/684"}],"replies":[{"embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/fr\/wp-json\/wp\/v2\/comments?post=492628"}],"version-history":[{"count":4,"href":"https:\/\/revistapesquisa.fapesp.br\/fr\/wp-json\/wp\/v2\/posts\/492628\/revisions"}],"predecessor-version":[{"id":494566,"href":"https:\/\/revistapesquisa.fapesp.br\/fr\/wp-json\/wp\/v2\/posts\/492628\/revisions\/494566"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/fr\/wp-json\/wp\/v2\/media\/492629"}],"wp:attachment":[{"href":"https:\/\/revistapesquisa.fapesp.br\/fr\/wp-json\/wp\/v2\/media?parent=492628"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/fr\/wp-json\/wp\/v2\/categories?post=492628"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/fr\/wp-json\/wp\/v2\/tags?post=492628"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/fr\/wp-json\/wp\/v2\/coauthors?post=492628"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}