{"id":485705,"date":"2023-07-13T15:32:16","date_gmt":"2023-07-13T18:32:16","guid":{"rendered":"https:\/\/revistapesquisa.fapesp.br\/?p=485705"},"modified":"2023-07-18T19:40:37","modified_gmt":"2023-07-18T22:40:37","slug":"deepfake-2","status":"publish","type":"post","link":"https:\/\/revistapesquisa.fapesp.br\/es\/deepfake-2\/","title":{"rendered":"<em>Deepfake<\/em>"},"content":{"rendered":"<p>En septiembre, un video adulterado del <em>Jornal Nacional<\/em>, el noticiero principal de la cadena Globo de televisi\u00f3n de Brasil, se propag\u00f3 en las redes sociales. En el mismo, los presentadores William Bonner y Renata Vasconcellos mostraban los resultados de una encuesta de intenci\u00f3n de voto para la Presidencia, pero los datos estaban invertidos al respecto de qui\u00e9n era el candidato favorito, tanto en los gr\u00e1ficos como en las intervenciones de los presentadores. Al d\u00eda siguiente, el noticiero emiti\u00f3 una aclaraci\u00f3n advirtiendo que el video se estaba utilizando para desinformar a la poblaci\u00f3n y afirm\u00f3 que se trataba de <em>deepfake<\/em>, o una ultrafalsificaci\u00f3n, es decir, una t\u00e9cnica que se vale de la inteligencia artificial para realizar ediciones avanzadas de contenidos. Con la misma es posible, por ejemplo, alterar digitalmente el rostro de una persona o simular su voz, haci\u00e9ndole hacer algo que no hizo o decir algo que no dijo.<\/p>\n<p>En agosto, otro video del noticiero con una edici\u00f3n similar, que tambi\u00e9n invert\u00eda los resultados de una encuesta de intenci\u00f3n de voto a la Presidencia, fue subido a la red social de videos TikTok, donde lleg\u00f3 a las 2.500.000 visualizaciones, seg\u00fan Projeto Comprova, una iniciativa que agrupa a periodistas de 43 medios de comunicaci\u00f3n del pa\u00eds para chequear la desinformaci\u00f3n.<\/p>\n<p>\u201cPuede ser que se haya utilizado alguna t\u00e9cnica de <em>deepfake <\/em>en esos videos, pero es necesario efectuar un an\u00e1lisis m\u00e1s minucioso. Para nosotros, lo que importa es saber que son falsos\u201d, dice el cient\u00edfico de la computaci\u00f3n Anderson Rocha, director del Instituto de Computaci\u00f3n de la Universidad de Campinas (Unicamp), en donde coordina el Laboratorio de Inteligencia Artificial (Recod.ai). El investigador ha venido estudiando formas de detectar adulteraciones maliciosas en fotos y videos, incluso en <em>deepfakes<\/em>, tambi\u00e9n llamadas medios sint\u00e9ticos.<\/p>\n<p>Otro caso ocurri\u00f3 en marzo de este a\u00f1o, poco despu\u00e9s de que comenzara la guerra entre Rusia y Ucrania, cuando el presidente ucraniano, Volod\u00edmir Zelenski fue v\u00edctima de <em>deepfake<\/em>. En las redes sociales circul\u00f3 un video en el que \u00e9l parec\u00eda pedirles a los ucranianos que depusieran las armas y regresaran a sus hogares, como si el pa\u00eds se estuviera rindiendo, lo que oblig\u00f3 a Facebook y YouTube a retirarlo de circulaci\u00f3n tan pronto como se comprob\u00f3 que era falso. En las im\u00e1genes, el rostro del presidente aparec\u00eda en un cuerpo que casi no se mov\u00eda, vestido con una camiseta verde.<\/p>\n<p>En algunos casos, como en los videos del <em>Jornal Nacional<\/em>, no es tan dif\u00edcil darse cuenta de que hab\u00edan sido alterados de alguna forma, porque las noticias originales se encuentran f\u00e1cilmente disponibles para su verificaci\u00f3n. Pero no siempre es as\u00ed. Frente a los medios sint\u00e9ticos, el aforismo \u201cver para creer\u201d va perdiendo sentido y la propia inteligencia artificial podr\u00eda ser una aliada.<\/p>\n<p>\u201cPor lo general, los videos sint\u00e9ticos se elaboran en dos etapas: en primera instancia, mediante el uso de una plataforma de <em>deepfake<\/em>, para reemplazar rostros o realizar una sincronizaci\u00f3n de la boca, y despu\u00e9s se procede a editarlos por medio de programas de edici\u00f3n de video\u201d, explica Rocha. Los que saben buscar suelen detectar alguna falla del programa utilizado para producir la falsificaci\u00f3n: un juego de luces diferente o un contraste entre el video original y la cara nueva que se ha insertado.<\/p>\n<p>Es como recortar un rostro de una foto y colocarlo sobre otra: el \u00e1ngulo de iluminaci\u00f3n y la forma en que la c\u00e1mara capt\u00f3 las dos im\u00e1genes son diferentes. Estos rastros son pistas que se van dejando en el camino, que son identificadas mediante las t\u00e9cnicas de computaci\u00f3n forense, un \u00e1rea de la investigaci\u00f3n cient\u00edfica que ha crecido en los \u00faltimos a\u00f1os y de la cual Rocha forma parte.<\/p>\n<p>Junto a colegas de la Universidad de Hong Kong, el investigador ha desarrollado un algoritmo que ayuda a detectar en forma simult\u00e1nea en los videos si ha habido manipulaciones de rostros y, en caso de ser as\u00ed, a determinar qu\u00e9 partes fueron alteradas. Puede haber sido un rostro completo, por ejemplo, o tan solo la boca, la zona de los ojos o el cabello. \u201cEl promedio de aciertos fue de un 88 % para los videos de baja resoluci\u00f3n y de un 95 % para los que ten\u00edan una resoluci\u00f3n superior\u201d, explica Rocha, sobre un conjunto total de 112.000 rostros sometidos a pruebas: la mitad verdaderos, la otra mitad manipulados a trav\u00e9s de cuatro programas de <em>deepfake<\/em>. Este m\u00e9todo tambi\u00e9n indica si la imagen fue generada desde cero, es decir, sin tener como base una fotograf\u00eda real. Los resultados salieron publicados en abril de 2022 en la revista <em>Transactions on Information Forensics and Security<\/em>.<\/p>\n<blockquote><p><span lang=\"es-419\">Es posible cambiar el rostro de una persona o\u00a0simular su\u00a0voz para lograr que esta diga algo que no dijo<\/span><\/p><\/blockquote>\n<p>Seg\u00fan el cient\u00edfico de la computaci\u00f3n, otros algoritmos desarrollados pueden detectar rasgos de alteraciones en los videos de <em>deepfake<\/em>, pero la mayor\u00eda trabajan con base en las pistas que han dejado los programas de manipulaci\u00f3n m\u00e1s conocidos que, b\u00e1sicamente, se dividen en dos categor\u00edas: los que permiten el intercambio de rostros y aquellos que posibilitan la edici\u00f3n de las expresiones faciales. A un <em>software<\/em> de esta clase se lo conoce porque siempre deja alguna imperfecci\u00f3n en la sincronizaci\u00f3n de la boca, y, por ello, se programa al algoritmo detector para que busque este error espec\u00edfico. \u201cEsto conlleva un problema: si no conocemos el <em>software<\/em> de <em>deepfake<\/em>, resulta m\u00e1s dif\u00edcil detectar esos rasgos. Y siempre est\u00e1n surgiendo aplicaciones nuevas\u201d, dice Rocha.<\/p>\n<p>Por eso, \u00e9l y sus colegas entrenaron al algoritmo que desarrollaron para que detecte las pistas sin suponer el conocimiento de la aplicaci\u00f3n generadora de <em>deepfake<\/em>. \u201cTrabajamos con la idea de que, independientemente del programa, este va a dejar un ruido, algo que no concuerda con el resto de la imagen\u201d. Este m\u00e9todo trabaja en dos frentes: busca firmas de ruido, es decir, cambios sutiles en el borde de la cara, por ejemplo, y mapea la llamada firma sem\u00e1ntica, que puede ser un defecto de color, textura o forma.<\/p>\n<p>\u201cEl algoritmo automatiza el proceso que realiza un experto humano, consistente en buscar incoherencias, como los contrastes de luz\u201d, dice. \u201cEl paso siguiente consistir\u00e1 en probarlo con videos falsos generados por una cantidad de programas mayor, para confirmar su potencial\u201d.<\/p>\n<p>Este tipo de algoritmo detector puede utilizarse para diversos prop\u00f3sitos que involucren el uso malintencionado de <em>deepfakes<\/em>. Rocha forma parte de un proyecto internacional, llamado Semantic Forensics, junto con otros investigadores de las universidades de Siena y Polit\u00e9cnica de Mil\u00e1n, en Italia, y de Notre Dame, en Estados Unidos, que cuenta con el apoyo del Departamento de Defensa de Estados Unidos. El objetivo es desarrollar herramientas automatizadas que detecten estas manipulaciones. \u201cHemos visto casos de videos alterados de ejercicios militares de otros pa\u00edses, que multiplican la cantidad de misiles para mostrar un poder\u00edo b\u00e9lico mayor que el real\u201d, relata.<\/p>\n<p>Estos algoritmos tambi\u00e9n pueden ser de ayuda en los casos de <em>deepfakes <\/em>pol\u00edticos, como en el episodio con el presidente ucraniano, o incluso pornogr\u00e1ficos. La t\u00e9cnica se hizo famosa a finales de 2017, justamente utilizando pel\u00edculas de sexo. Por entonces, algunos usuarios de internet empezaron a insertar el rostro de celebridades del cine en escenas de pel\u00edculas con contenido sexual. Seg\u00fan una investigaci\u00f3n realizada en septiembre de 2019 por DeepTrace Labs, una compa\u00f1\u00eda neerlandesa de ciberseguridad, el 96 % de los videos de <em>deepfake <\/em>identificados en la red correspond\u00eda a pornograf\u00eda no consentida. Las v\u00edctimas principales eran mujeres, sobre todo actrices, pero tambi\u00e9n se registraron casos de personas que no eran famosas. En julio de este a\u00f1o, la cantante Anitta tambi\u00e9n fue v\u00edctima de un <em>deepfake <\/em>porno. El video original ya hab\u00eda sido utilizado para producir otras falsificaciones con el rostro de la actriz Angelina Jolie.<\/p>\n<p>Seg\u00fan la periodista Cristina Tard\u00e1guila, directora de programas del Centro Internacional para Periodistas (ICFJ) y fundadora de Ag\u00eancia Lupa, que se especializa en la comprobaci\u00f3n de sucesos, Brasil ya ha tenido que lidiar con <em>deepfakes<\/em> que tuvieron que desmentirse. Por ello, los programas que ayuden a detectar medios sint\u00e9ticos pueden convertirse en aliados de los periodistas y verificadores de hechos, que trabajan contrarreloj. \u201cAl lidiar con la desinformaci\u00f3n, se necesita actuar con celeridad. Por eso, es importante invertir en inteligencia artificial, en herramientas que puedan ayudar a detectar y mapear con mayor rapidez este tipo de contenidos falsos. As\u00ed, podremos acortar el tiempo entre la propagaci\u00f3n de contenido falso y la entrega de la verificaci\u00f3n\u201d, analiza.<\/p>\n<p>\u201cLos ultrafalsos son la cumbre de las <em>fake news<\/em>. Tienen el potencial de poder enga\u00f1ar con mayor facilidad, porque, cuando se trata de un video, uno est\u00e1 viendo esa escena\u201d, dice la periodista Magaly Prado, quien cumple una pasant\u00eda posdoctoral en el Instituto de Estudios Avanzados de la Universidad de S\u00e3o Paulo (IEA-USP). \u201cEl audio, incluso, tambi\u00e9n puede generarse en forma sint\u00e9tica\u201d, dice la periodista, autora del libro <em>Fake news e intelig<\/em><em>\u00eancia artificial: O poder dos algoritmos na guerra da desinforma\u00e7\u00e3o<\/em>, publicado en julio por Edi\u00e7\u00f5es 70.<\/p>\n<div id=\"attachment_485710\" style=\"max-width: 1210px\" class=\"wp-caption alignright\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-485710 size-full\" src=\"https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2023\/07\/SITE_DeepFake-2-1140-1.jpg\" alt=\"\" width=\"1200\" height=\"300\" srcset=\"https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2023\/07\/SITE_DeepFake-2-1140-1.jpg 1200w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2023\/07\/SITE_DeepFake-2-1140-1-250x63.jpg 250w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2023\/07\/SITE_DeepFake-2-1140-1-700x175.jpg 700w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2023\/07\/SITE_DeepFake-2-1140-1-120x30.jpg 120w\" sizes=\"auto, (max-width: 1200px) 100vw, 1200px\" \/><p class=\"wp-caption-text\"><span class=\"media-credits-inline\">Reproducci\u00f3n<\/span>En un video falsificado, el presidente ucraniano, Volod\u00edmir Zelenski, les ped\u00eda a sus compatriotas que depusieran las armas<span class=\"media-credits\">Reproducci\u00f3n<\/span><\/p><\/div>\n<p>A su juicio, pese a ser menos recordados y habituales, los <em>deepfakes <\/em>exclusivamente en formato de audio tienen potencial para propagarse por plataformas como WhatsApp, una aplicaci\u00f3n muy utilizada por los brasile\u00f1os. Estos siguen una l\u00f3gica similar a la de los videos: mediante aplicaciones accesibles que son cada vez mejores, puede simularse la voz de alguien. Las v\u00edctimas m\u00e1s f\u00e1ciles son las personalidades p\u00fablicas, cuya voz se encuentra ampliamente a disposici\u00f3n en internet. La t\u00e9cnica tambi\u00e9n puede utilizarse para perpetrar delitos econ\u00f3micos. \u201cHa habido casos como el de un empleado de una empresa de tecnolog\u00eda que recibi\u00f3 un correo de voz de un alto ejecutivo solicit\u00e1ndole que realizara una transferencia de fondos. \u00c9l sospech\u00f3, el caso fue analizado por una empresa de seguridad y se comprob\u00f3 que se trataba de un mensaje elaborado por medio de inteligencia artificial\u201d, relata.<\/p>\n<p>El periodista Bruno Sartori, director de la empresa FaceFactory, explica que la producci\u00f3n de <em>deepfakes<\/em> bien hechos, tanto de audio como de video, no resulta tan sencilla, por ahora. Esto es lo que \u00e9l hace profesionalmente: su empresa se dedica a la creaci\u00f3n de medios sint\u00e9ticos para uso comercial y produce contenidos para programas humor\u00edsticos de los canales de televisi\u00f3n Globo y SBT.<\/p>\n<p>En 2021, trabaj\u00f3 en un comercial para Samsung en el cual, la presentadora Ma\u00edsa, ya adulta, interactuaba con ella misma cuando era una ni\u00f1a; esta \u00faltima, creada a partir de t\u00e9cnicas de <em>deepfake<\/em>. La chiquilla virtual baila, juega y arroja una <em>notebook <\/em>hacia arriba. En otra ocasi\u00f3n, tuvo que insertar el rostro de un actor en un doble. \u201cPara entrenar adecuadamente a la inteligencia artificial, es importante contar con un buen banco de im\u00e1genes y de audio de la persona que se pretende imitar. Los buenos programas que realizan procesamiento de alta calidad tambi\u00e9n deben disponer de configuraciones avanzadas. Caso contrario, pueden aparecer fallas perceptibles en el rostro, o bien, en el caso del audio, una voz robotizada\u201d, explica.<\/p>\n<p>A su juicio, los videos manipulados del <em>Jornal Nacional<\/em> que tergiversan los datos de las encuestas no habr\u00edan llegado a ser alterados mediante el uso de inteligencia artificial. \u201cSeg\u00fan mi an\u00e1lisis, en esos caso se hizo una edici\u00f3n com\u00fan, que implica el corte y la inversi\u00f3n del orden de los audios. Se trata de lo que denominamos <em>shallowfake<\/em>. Empero, como est\u00e1n bien elaborados, su potencial para enga\u00f1ar a la gente es el mismo\u201d, analiza Sartori. Para \u00e9l, en pocos a\u00f1os m\u00e1s, estos programas ser\u00e1n m\u00e1s ligeros, inteligentes y accesibles.<\/p>\n<p>Hay algunas formas de protegerse contra la desinformaci\u00f3n generada con ayuda de la tecnolog\u00eda. Una de ellas consiste en prestar atenci\u00f3n a las licencias de uso y privacidad de las m\u00faltiples aplicaciones gratuitas que se utilizan de manera cotidiana, desde aquellas que solicitan acceso a las fotos del usuario para generar efectos divertidos, y pasando por las que pueden almacenar la voz. Seg\u00fan Rocha, de la Unicamp, muchas de ellas almacenan una gran cantidad de datos que podr\u00edan llegar a compartirse para otros prop\u00f3sitos, por ejemplo, entrenar programas de <em>deepfake<\/em>.<\/p>\n<p>Otro punto importante es la educaci\u00f3n medi\u00e1tica. \u201cPor m\u00e1s que existan <em>software<\/em> que nos ayuden a detectar lo que es falso, el primer paso reside en desconfiar de aquello que se recibe en las redes sociales. Y comprobar las fuentes de informaci\u00f3n, investigarlas\u201d, concluye.<\/p>\n<p class=\"bibliografia separador-bibliografia\"><strong>Proyecto<br \/>\n<\/strong><em>D\u00e9j\u00e0 vu<\/em>: coherencia temporal, espacial y de caracterizaci\u00f3n de datos heterog\u00e9neos para el an\u00e1lisis e interpretaci\u00f3n de la integridad (<a href=\"https:\/\/bv.fapesp.br\/pt\/auxilios\/98398\/deja-vu-coerencia-temporal-espacial-e-de-caracterizacao-de-dados-heterogeneos-para-analise-e-interpr\/\" target=\"_blank\" rel=\"noopener\">n\u00ba 17\/12646-3<\/a>);\u00a0<strong>Modalidad<\/strong>\u00a0Proyecto Tem\u00e1tico;\u00a0<strong>Investigador responsable<\/strong>\u00a0Anderson Rocha;\u00a0<strong>Inversi\u00f3n<\/strong>\u00a0R$ 1.912.168,25.<\/p>\n<p class=\"bibliografia\"><p class=\"bibliografia\"><strong>Art\u00edculo cient\u00edfico<br \/>\n<\/strong>KONG, C.\u00a0<em>et al<\/em>.\u00a0<a href=\"https:\/\/ieeexplore.ieee.org\/abstract\/document\/9764682\" target=\"_blank\" rel=\"noopener\">Detect and locate: Exposing face manipulation by semantic- and noise-level telltales<\/a>.\u00a0<strong>Transactions on Information Forensics and Security<\/strong>. v. 17. abr. 2022.<\/p><\/p>\n<p class=\"bibliografia\"><p class=\"bibliografia\"><strong>Libro<br \/>\n<\/strong>PRADO, M.\u00a0<strong>Fake news e intelig\u00eancia artificial: O poder dos algoritmos na guerra da desinforma\u00e7\u00e3o<\/strong>. S\u00e3o Paulo: Edi\u00e7\u00f5es 70, 2022.<\/p><\/p>\n","protected":false},"excerpt":{"rendered":"Un algoritmo detecta im\u00e1genes y videos adulterados mediante inteligencia artificial, el nuevo nivel del desarrollo tecnol\u00f3gico para propagar la desinformaci\u00f3n","protected":false},"author":684,"featured_media":485706,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"_exactmetrics_skip_tracking":false,"_exactmetrics_sitenote_active":false,"_exactmetrics_sitenote_note":"","_exactmetrics_sitenote_category":0,"footnotes":""},"categories":[192],"tags":[289,333],"coauthors":[2721],"class_list":["post-485705","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tecnologia-es","tag-comunicacion","tag-tecnologia-de-la-informacion"],"acf":[],"_links":{"self":[{"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/posts\/485705","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/users\/684"}],"replies":[{"embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/comments?post=485705"}],"version-history":[{"count":4,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/posts\/485705\/revisions"}],"predecessor-version":[{"id":486492,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/posts\/485705\/revisions\/486492"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/media\/485706"}],"wp:attachment":[{"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/media?parent=485705"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/categories?post=485705"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/tags?post=485705"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/coauthors?post=485705"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}