{"id":334668,"date":"2020-03-17T17:19:14","date_gmt":"2020-03-17T20:19:14","guid":{"rendered":"https:\/\/revistapesquisa.fapesp.br\/?p=334668"},"modified":"2020-03-17T17:19:14","modified_gmt":"2020-03-17T20:19:14","slug":"algoritmos-parciales","status":"publish","type":"post","link":"https:\/\/revistapesquisa.fapesp.br\/es\/algoritmos-parciales\/","title":{"rendered":"Algoritmos parciales"},"content":{"rendered":"<p>Los algoritmos de la inteligencia artificial (IA) se han desarrollado en buena medida para detectar patrones, de manera tal que puedan automatizarse las decisiones a los efectos de facilitarle la vida a la gente. Esta tecnolog\u00eda puede reconocer el estilo de m\u00fasica preferido de un usuario, el g\u00e9nero de pel\u00edculas que le interesa a este o los temas que m\u00e1s busca en los diarios. Sin embargo, al estar programados para captar modelos de comportamiento, los algoritmos tambi\u00e9n pueden replicar conductas indeseables, tales como el racismo, la misoginia y la homofobia. Absorben, reproducen y, como resultado de ello, afianzan la discriminaci\u00f3n y la intolerancia presente en la sociedad en sus m\u00e1s variadas formas.<\/p>\n<p>En agosto de 2019, un estudio llevado a cabo por investigadores de la Universidad Federal de Minas Gerais (UFMG) expuso un ejemplo de ese c\u00edrculo vicioso que cobr\u00f3 repercusi\u00f3n en diversas publicaciones de la prensa internacional: un proceso de radicalizaci\u00f3n pol\u00edtica en YouTube en el contexto estadounidense, donde el algoritmo de recomendaci\u00f3n cumple un papel importante. \u201cYa hab\u00eda estudios cualitativos y reportajes que mostraban a YouTube como un terreno f\u00e9rtil para la proliferaci\u00f3n de comunidades sombr\u00edas vinculadas a la denominada <em>alt-right<\/em> [derecha alternativa] estadounidense, cuyos principios est\u00e1n \u00edntimamente ligados a la supremac\u00eda blanca\u201d, dice el cient\u00edfico de la computaci\u00f3n Manoel Horta Ribeiro, quien actualmente realiza un doctorado en la Escuela Polit\u00e9cnica Federal de Lausana (EPFL), en Suiza. En su maestr\u00eda, realizada en la UFMG bajo la direcci\u00f3n de los cient\u00edficos de la computaci\u00f3n Wagner Meira Jr. y Virg\u00edlio Almeida, \u00e9l prentend\u00eda entender c\u00f3mo se suscitaba ese fen\u00f3meno.<\/p>\n<p>El grupo hurg\u00f3 en 331.849 videos de 360 canales de distintas orientaciones pol\u00edticas y rastre\u00f3 79 millones de comentarios. Esto representa un volumen inmenso de datos, manejable justamente merced a los recursos de la inteligencia artificial. \u201cEl \u00fanico trabajo manual consisti\u00f3 en la clasificaci\u00f3n de los canales seg\u00fan su orientaci\u00f3n pol\u00edtica\u201d, dice Horta Ribeiro. Los resultados revelaron que los canales supremacistas blancos se benefician debido a la migraci\u00f3n de seguidores de canales pol\u00edticamente conservadores con contenidos menos extremistas.<\/p>\n<p>\u201cRastreamos la trayectoria de los usuarios que comentaban videos de canales conservadores y descubrimos que, con el paso del tiempo, ellos comentaban los videos de los canales m\u00e1s radicales. Hab\u00eda una migraci\u00f3n consistente de los contenidos m\u00e1s leves hacia los m\u00e1s extremos, pero no sabemos c\u00f3mo sucede eso exactamente\u201d, explica ortaHorta Horta Ribeiro. \u201cCreo que hay tres razones que contribuyen con ese fen\u00f3meno: el formato del medio, donde cualquiera puede generar contenidos y en el cual los espectadores interact\u00faan bastante directamente con los creadores; el escenario pol\u00edtico mundial actual, y el algoritmo, que les permite a los usuarios detectar o continuar consumiendo contenido extremista a trav\u00e9s del sistema de recomendaciones\u201d.<\/p>\n<p>Los estudios que involucran a YouTube se han tornado significativos en los \u00faltimos a\u00f1os. Seg\u00fan Virg\u00edlio Almeida, profesor em\u00e9rito del Departamento de Ciencia de la Computaci\u00f3n de la UFMG, esta plataforma de videos se ha revelado como algo muy interesante para la ciencia. \u201cLa cifra de usuarios es enorme \u2013m\u00e1s de 2 mil millones en todo el mundo y 70 millones en Brasil\u2013, como as\u00ed tambi\u00e9n su impacto en la sociedad\u201d, dice el investigador. Su departamento se transform\u00f3 en un granero de investigaciones sobre el fen\u00f3meno de las redes sociales.<\/p>\n<p>Almeida comenz\u00f3 a dedicarse a este campo de investigaci\u00f3n en 2007. Los estudios que tuvieron mayor repercusi\u00f3n provinieron del \u00e1mbito pol\u00edtico, polarizado tanto en Estados Unidos como en Brasil. En 2018, un an\u00e1lisis de discursos de odio y discriminaci\u00f3n en videos publicados en YouTube por grupos de derecha estadounidenses cobr\u00f3 preponderancia en la International ACM Conference on Web Science, en Holanda. Ese trabajo fue reconocido como el mejor llevado a cabo por estudiantes: los alumnos de doctorado Raphael Ottoni, Evandro Cunha, Gabriel Magno y Pedro Bernardina, todos integrantes del grupo de Wagner Meira Jr. y Virg\u00edlio Almeida.<\/p>\n<p>Para el estudio de los comentarios transcritos de los <em>youtubers<\/em> y los comentarios publicados en los videos, los investigadores de la UFMG recurrieron a las herramientas Linguistic Inquiry Word Count (LIWC) y Latent Dirichlet Allocation (LDA). LIWC permite la clasificaci\u00f3n de palabras dentro de categor\u00edas correspondientes a la estructura de las frases (pronombres, verbos, adverbios, etc.) y al contenido emocional (si expresan alegr\u00eda, tristeza, enojo, etc.). LDA busca palabras que puedan definir cu\u00e1les son los apartados principales en una conversaci\u00f3n.<\/p>\n<p>\u201cTambi\u00e9n utilizamos una herramienta basada en un test psicol\u00f3gico para determinar el sesgo de esos comentarios\u201d, explica Raphael Ottoni. Esta herramienta se basa en la comparaci\u00f3n de las distancias entre palabras ubicadas en un mismo contexto, con la finalidad de establecer asociaciones. Esto se concreta mediante el empleo de t\u00e9cnicas de aprendizaje de m\u00e1quinas que convierten las palabras de un texto en vectores de n\u00fameros; y estos, a su vez, se utilizan para calcular la similitud sem\u00e1ntica de las palabras. En el caso de alg\u00fan tema en particular, las palabras que se encuentran m\u00e1s cercanas tienden a establecer entre s\u00ed una asociaci\u00f3n de significado. \u201cPalabras tales como \u201ccristianismo\u201d aparec\u00edan en el texto asociadas a atributos de valor positivo, tales como bueno u honesto, mientras que \u201cislamismo\u201d, estaba relacionada con frecuencia a terrorismo y muerte\u201d, menciona Ottoni a modo de ejemplos.<\/p>\n<div id=\"attachment_334673\" style=\"max-width: 1150px\" class=\"wp-caption alignright\"><a href=\"https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2020\/02\/062-067_inteligencia-artificial_287-1-1140.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-334673 size-full\" src=\"https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2020\/02\/062-067_inteligencia-artificial_287-1-1140.jpg\" alt=\"\" width=\"1140\" height=\"780\" srcset=\"https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2020\/02\/062-067_inteligencia-artificial_287-1-1140.jpg 1140w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2020\/02\/062-067_inteligencia-artificial_287-1-1140-250x171.jpg 250w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2020\/02\/062-067_inteligencia-artificial_287-1-1140-700x479.jpg 700w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2020\/02\/062-067_inteligencia-artificial_287-1-1140-120x82.jpg 120w\" sizes=\"auto, (max-width: 1140px) 100vw, 1140px\" \/><p class=\"wp-caption-text\"><span class=\"media-credits-inline\">Jose Luis Magana\/ AFP\/ Getty Images<\/span><\/a> Supremacistas blancos en Estados Unidos: los canales de esos grupos en YouTube registran el aval de internautas conservadores menos radicales, se\u00f1alan los investigadores<span class=\"media-credits\">Jose Luis Magana\/ AFP\/ Getty Images<\/span><\/p><\/div>\n<p>Estas t\u00e9cnicas se aplicaron en la coyuntura brasile\u00f1a. Los investigadores analizaron videos publicados en YouTube durante el per\u00edodo de la campa\u00f1a electoral de las presidenciales de 2018, en 55 canales identificados con posturas pol\u00edticas que iban desde la extrema izquierda hasta la extrema derecha. Los mensajes de odio y las teor\u00edas conspirativas se detectaron con mayor frecuencia en los canales de extrema derecha, y estos fueron los que registraron un mayor crecimiento en cuanto a la cantidad de visualizaciones. Los investigadores est\u00e1n ahora culminando un art\u00edculo en el cual presentar\u00e1n los resultados de este an\u00e1lisis. Pero incluso antes de su publicaci\u00f3n, este estudio ya ha sido citado: en agosto de 2019, apareci\u00f3 mencionado en un reportaje publicado en el peri\u00f3dico <em>The New York Times<\/em> como parte de una serie dedicada a la influencia de YouTube en distintos pa\u00edses, y particularmente en Brasil.<\/p>\n<p>Seg\u00fan Almeida, en otros estudios se ha constatado que los algoritmos de recomendaci\u00f3n de noticias y videos acaban vali\u00e9ndose de la atracci\u00f3n natural humana por las noticias negativas y las teor\u00edas conspirativas para intensificar el nexo de los usuarios con esa plataforma. \u201cUna investigaci\u00f3n llevada a cabo por un grupo del MIT [Instituto de Tecnolog\u00eda de Massachusetts], que sali\u00f3 publicada en la revista <em>Science<\/em> en marzo de 2019, demostr\u00f3 que los temores, los enojos y las emociones m\u00e1s extremas son factores claves para la difusi\u00f3n de tuits con falsedades\u201d, resalta.<\/p>\n<p>De la misma manera que un algoritmo registra la m\u00fasica y las pel\u00edculas que prefiere el usuario, tambi\u00e9n capta\u00a0 sus preferencias pol\u00edticas, raz\u00f3n por la cual las plataformas de contenidos compartidos \u2013tal como es el caso de Facebook\u2013 se transforman en burbujas casi infranqueables de un determinado espectro pol\u00edtico. El usuario solo recibe aquella informaci\u00f3n que corrobora sus opiniones previas.<\/p>\n<p>Para estudiar este fen\u00f3meno, e inspirado por el libro <em>El filtro burbuja<\/em> (en Brasil <em>O filtro invis\u00edvel<\/em>, editorial Zahar, 2012), del activista estadounidense Eli Parisier, el cient\u00edfico de la computaci\u00f3n estadounidense Christo Wilson, de la Northeastern University, en Massachusetts, Estados Unidos, ingres\u00f3 al campo de las redes sociales en 2012. \u201cMis estudios se centraban originalmente en el estudio de la personalizaci\u00f3n de los algoritmos utilizados por los mecanismos de b\u00fasqueda, y desde entonces me he expandido hacia otros tipos de algoritmos y contextos\u201d, le dijo el investigador a <em>Pesquisa FAPESP<\/em>. Wilson se apresta a regresar al campo de la pol\u00edtica en 2020: tiene en mente realizar un amplio estudio sobre el impacto de las redes sociales en las pr\u00f3ximas elecciones que tendr\u00e1n lugar en su pa\u00eds.<\/p>\n<p><strong>La discriminaci\u00f3n algor\u00edtmica<\/strong><br \/>\nEl sesgo algor\u00edtmico puede aparecer donde menos cabr\u00eda de esperarse, tal como, por ejemplo, en los servicios de asistencia de voz inteligentes del celular. En el marco de un estudio realizado en forma conjunta entre la Universidade de Fortaleza (Unifor) y el grupo de la UFMG se detect\u00f3 que la eficiencia de los asistentes de voz, tales como Siri, de Apple, y Google, var\u00eda seg\u00fan la entonaci\u00f3n y el nivel de escolaridad. La cient\u00edfica de la computaci\u00f3n Elizabeth Sucupira Furtado, quien coordina el Laboratorio de Estudios de los Usuarios y la Calidad en el Uso de Sistemas de la Unifor, llev\u00f3 a cabo un estudio con dos grupos de voluntarios: residentes Fortaleza, la capital del estado de Cear\u00e1, entre ellos varios nacidos en otros estados, y alumnos de una escuela de educaci\u00f3n nocturna para j\u00f3venes y adultos. \u201cLos usuarios nacidos en las regiones sur y sudeste del pa\u00eds eran mejor comprendidos por los <em>software<\/em> de asistentes de voz que el resto de los usuarios\u201d, revela la investigadora.<\/p>\n<p>Los errores en la pronunciaci\u00f3n (cacoep\u00eda), el tartamudeo o la repetici\u00f3n de palabras y el habla escandida (disfluencia), tambi\u00e9n mermaron el rendimiento de los asistentes rob\u00f3ticos. Seg\u00fan la investigadora, una vez que el sistema aprende con los usuarios que tienen mayor nivel educativo, el entrenamiento de los asistentes de voz tiende a limitarse a las formas del habla estandarizadas. \u201cEs importante que las empresas registren que existe un p\u00fablico al que no se est\u00e1 teniendo en cuenta\u201d, advierte Sucupira Furtado.<\/p>\n<div id=\"attachment_334677\" style=\"max-width: 1150px\" class=\"wp-caption alignright\"><a href=\"https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2020\/02\/062-067_inteligencia-artificial_287-2-1140.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-334677 size-full\" src=\"https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2020\/02\/062-067_inteligencia-artificial_287-2-1140.jpg\" alt=\"\" width=\"1140\" height=\"761\" srcset=\"https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2020\/02\/062-067_inteligencia-artificial_287-2-1140.jpg 1140w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2020\/02\/062-067_inteligencia-artificial_287-2-1140-250x167.jpg 250w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2020\/02\/062-067_inteligencia-artificial_287-2-1140-700x467.jpg 700w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2020\/02\/062-067_inteligencia-artificial_287-2-1140-120x80.jpg 120w\" sizes=\"auto, (max-width: 1140px) 100vw, 1140px\" \/><p class=\"wp-caption-text\"><span class=\"media-credits-inline\">Cris Faga\/ Fox Press Photo\/ Folhapress  <\/span><\/a> Una manifestaci\u00f3n durante la \u00faltima campa\u00f1a presidencial en Brasil: los investigadores estudiaron los v\u00eddeos publicados durante la disputa electoral<span class=\"media-credits\">Cris Faga\/ Fox Press Photo\/ Folhapress  <\/span><\/p><\/div>\n<p>En los mecanismos de b\u00fasqueda tambi\u00e9n se ocultan prejuicios. Eso fue lo que demostr\u00f3 la cient\u00edfica de la computaci\u00f3n Camila Souza Ara\u00fajo en su tesina de maestr\u00eda defendida en la UFMG, en 2017. En los buscadores de Google y de Bing, la investigadora introdujo los t\u00e9rminos \u201cmujeres lindas\u201d y \u201cmujeres feas\u201d y comprob\u00f3 un prejuicio racial y de edad. Las mujeres a las cuales se las identificaba como lindas eran mayoritariamente blancas y j\u00f3venes. Ese sesgo se repiti\u00f3 en la mayor\u00eda de los 28 pa\u00edses donde predomina el buscador Bing y en 41 pa\u00edses que utilizan el buscador Google, incluso aquellos pertenecientes al continente africano.<\/p>\n<p>Al utilizar sistemas de aprendizaje de m\u00e1quinas, la sociedad corre el riesgo de perpetuar prejuicios en forma inadvertida, debido al sentido com\u00fan que percibe a la matem\u00e1tica como algo neutro. El ingeniero de datos estadounidense Fred Benenson acu\u00f1\u00f3 un t\u00e9rmino para definir a ese riesgo: <em>mathwashing<\/em>. Para ello se bas\u00f3 en el t\u00e9rmino <em>greenwashing<\/em>, que denomina al uso de estrategias de <em>marketing <\/em>en las empresas para simular preocupaci\u00f3n ambiental. De la misma manera, la idea de que los algoritmos son neutros tambi\u00e9n beneficia y exime de responsabilidad a quienes los utilizan.<\/p>\n<p>Sucede que los sistemas de inteligencia artificial se alimentan con datos, y quienes seleccionan esos datos son seres humanos, que podr\u00edan actuar bas\u00e1ndose en prejuicios de manera inconsciente o intencional. Un estudio llevado a cabo por un cient\u00edfico de la Universidad de California en Berkeley, Estados Unidos, que sali\u00f3 publicado en octubre en la revista <em>Science<\/em>, explicit\u00f3 un ejemplo de ello. En un hospital de ese pa\u00eds, los investigadores constataron que el algoritmo responsable de la clasificaci\u00f3n de los pacientes con mayor necesidad de atenci\u00f3n \u2013por hallarse en un riesgo mayor\u2013 privilegiaba a los blancos en detrimento de los negros. Esto suced\u00eda porque el sistema se basaba en el pago de seguros de salud, que son mayores en el caso de los individuos con mayor acceso a la atenci\u00f3n m\u00e9dica, y no en la probabilidad de que cada uno padezca enfermedades graves o cr\u00f3nicas. Esta situaci\u00f3n pone en evidencia que la construcci\u00f3n del algoritmo puede ser responsable del prejuicio embutido en los resultados.<\/p>\n<p><strong>La educaci\u00f3n contra los sesgos<\/strong><br \/>\nLa protecci\u00f3n de la sociedad frente a la desinformaci\u00f3n y los prejuicios difundidos por la inteligencia artificial constituye un reto que puede comenzar a superarse apelando a la educaci\u00f3n. Virg\u00edlio Almeida pone de relieve en car\u00e1cter de ejemplo a la iniciativa de las escuelas de Finlandia, que promueven entre los ni\u00f1os el desarrollo de un esp\u00edritu cr\u00edtico y la detecci\u00f3n de noticias falsas en la web, las denominadas <em>fake news<\/em>. Por supuesto, no basta con educar a los usuarios, sino que tambi\u00e9n es necesario educar a los programadores. \u201cUna de las maneras de evitar los sesgos consiste en disponer de datos m\u00e1s diversos para entrenar al algoritmo\u201d, enfatiza Almeida.<\/p>\n<p>La estudiante universitaria Bruna Thalemberg, una de las fundadoras del Tecs \u2013 Grupo de Computaci\u00f3n Social, del Instituto de Matem\u00e1tica y Estad\u00edstica de la Universidad de S\u00e3o Paulo (IME-USP), coincide: \u201cEl mundo est\u00e1 cambiando permanentemente, los algoritmos no deber\u00edan reproducir el pasado\u201d. El Tecs, fundado en 2017 como un equipo de extensi\u00f3n universitaria, surgi\u00f3 del di\u00e1logo de alumnos de la USP con el estudiante brasile\u00f1o Lawrence Muratta, quien estudiaba ciencia de la computaci\u00f3n en la Universidad Stanford, en Estados Unidos, donde ya hab\u00eda un grupo que planteaba el tema del sesgo.<\/p>\n<p>\u201cSent\u00edamos que la carrera de ciencia de la computaci\u00f3n estaba muy alejada de la sociedad\u201d, relata el exalumno Luiz Fernando Galati, quien actualmente trabaja en el Centro de Ense\u00f1anza e Investigaci\u00f3n en Innovaci\u00f3n de la Fundaci\u00f3n Getulio Vargas. El objetivo inicial del grupo era promover charlas y debates, pero acabaron proponiendo la inclusi\u00f3n de una nueva materia en la estructura curricular, algo que efectivamente se produjo.<\/p>\n<div id=\"attachment_334681\" style=\"max-width: 1150px\" class=\"wp-caption alignright\"><a href=\"https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2020\/02\/062-067_inteligencia-artificial_287-3-1140.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-334681 size-full\" src=\"https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2020\/02\/062-067_inteligencia-artificial_287-3-1140.jpg\" alt=\"\" width=\"1140\" height=\"760\" srcset=\"https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2020\/02\/062-067_inteligencia-artificial_287-3-1140.jpg 1140w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2020\/02\/062-067_inteligencia-artificial_287-3-1140-250x167.jpg 250w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2020\/02\/062-067_inteligencia-artificial_287-3-1140-700x467.jpg 700w, https:\/\/revistapesquisa.fapesp.br\/wp-content\/uploads\/2020\/02\/062-067_inteligencia-artificial_287-3-1140-120x80.jpg 120w\" sizes=\"auto, (max-width: 1140px) 100vw, 1140px\" \/><p class=\"wp-caption-text\"><span class=\"media-credits-inline\">Pedro Ladeira\/ Folhapress<\/span><\/a> En la sesi\u00f3n de la comisi\u00f3n de investigaci\u00f3n bicameral sobre las <em>fake news<\/em> en el Congreso se abord\u00f3 la pauta referente a la proliferaci\u00f3n de noticias falsas en el marco de las elecciones de 2018<span class=\"media-credits\">Pedro Ladeira\/ Folhapress<\/span><\/p><\/div>\n<p>\u201cLas charlas que promovemos se ofrecen en el marco de la materia \u2018Derecho y <em>software<\/em>\u2019, bajo la supervisi\u00f3n de los docentes Daniel Macedo Batista y Fabio Kon\u201d, informa Galati. El Tecs tambi\u00e9n forma parte de la TechShift Alliance, que agrupa a 20 organizaciones universitarias de Am\u00e9rica del Norte, Am\u00e9rica del Sur y Asia, dispuestos a debatir las tem\u00e1ticas sociales relacionadas con la inteligencia artificial.<\/p>\n<p>M\u00e1s all\u00e1 de la reflexi\u00f3n, el Tecs tiene el prop\u00f3sito de pasar a la acci\u00f3n, mediante proyectos que les permitan a grupos marginados el acceso al universo digital. Uno de esos proyectos es la ense\u00f1anza de l\u00f3gica de programaci\u00f3n a alumnos del Centro de Asistencia Socioeducativa al Adolescente, la Fundaci\u00f3n Casa [correccional]. \u201cLa primera divisi\u00f3n de ese curso se puso en marcha en el segundo semestre de 2018\u201d, informa la estudiante Jeniffer Martins da Silva, educadora que forma parte del proyecto. Desde su creaci\u00f3n, m\u00e1s de 40 j\u00f3venes han asistido al curso.<\/p>\n<p>La propia inteligencia artificial tambi\u00e9n puede aportar formas de prevenci\u00f3n y control. En 2018, investigadores de la USP y de la Universidad Federal de S\u00e3o Carlos (UFSCar) pusieron en marcha la versi\u00f3n piloto de una herramienta digital cuyo objetivo es detectar <em>fake news<\/em> (<em>lea el art\u00edculo <\/em>online<em> en:<\/em> bit.ly\/igAlgoritmosVies). La misma se encuentra a disposici\u00f3n en forma gratuita, v\u00eda web o en WhatsApp. Basta con someter una noticia sospechosa al sistema de verificaci\u00f3n. Al constatar indicios de falsedad, el sistema responde: \u201cEsta noticia podr\u00eda ser falsa. Por favor, consulte otras fuentes confiables antes de divulgarla\u201d. Seg\u00fan los autores del estudio, el sistema identifica con precisi\u00f3n hasta un 90% de las noticias que son totalmente falsas o totalmente verdaderas.<\/p>\n<p>En la Universidad de Campinas (Unicamp), un grupo que encabeza el cient\u00edfico de la computaci\u00f3n Anderson Rocha, director del Instituto de Computaci\u00f3n, se ha abocado al desarrollo de mecanismos de detecci\u00f3n de informaciones falsas difundidas en fotograf\u00edas y videos. \u201cNos valemos de t\u00e9cnicas de IA para comparar las informaciones que aparecen en determinado texto con comentarios y posibles im\u00e1genes. Al verificar esos tres grupos de informaci\u00f3n, se\u00f1alamos la posibilidad de discrepancia que puede conducir a la identificaci\u00f3n de una noticia falsa\u201d, dice Rocha.<\/p>\n<p>A su vez, se espera del sector privado una mayor transparencia. El t\u00e9rmino \u201cresponsabilidad algor\u00edtmica\u201d viene siendo cada vez m\u00e1s utilizado en los debates sobre el uso de la IA. Seg\u00fan el abogado Rafael Zanatta, experto en derecho digital e investigador del grupo de \u00c9tica, Tecnolog\u00eda y Econom\u00eda Digital de la USP, a\u00fan no existen leyes espec\u00edficas relacionadas con los aspectos discriminatorios de los algoritmos, aunque ya han surgido iniciativas en tal sentido. En Estados Unidos, se present\u00f3 un proyecto de ley denominado <em>Algorithmic Accountability Act<\/em>. De aprob\u00e1rselo, las empresas tendr\u00e1n que evaluar si los algoritmos que alimentan los sistemas de IA son tendenciosos o discriminatorios, y tambi\u00e9n si constituyen un riesgo para la privacidad o la seguridad de los consumidores.<\/p>\n<p>En abril de 2019, la Uni\u00f3n Europea divulg\u00f3 directrices \u00e9ticas para el uso de la inteligencia artificial, entre las cuales figuran el establecimiento de medidas que hagan responsables a las empresas de las consecuencias sociales de la utilizaci\u00f3n de IA, y la posibilidad de intervenci\u00f3n y supervisi\u00f3n humana en el funcionamiento del sistema.<\/p>\n<p>En Brasil, tambi\u00e9n se intent\u00f3 introducir en 2019 una ley que contempla la revisi\u00f3n humana de las decisiones automatizadas. Un ciudadano que se sintiera perjudicado por una medida dispuesta por algoritmos \u2013en el otorgamiento de un pr\u00e9stamo, por ejemplo\u2013 podr\u00eda requerir la intervenci\u00f3n de un revisor para dilucidar los criterios adoptados para la toma de la decisi\u00f3n. Ese proyecto, sin embargo, fue vetado por la Presidencia de la Rep\u00fablica, bas\u00e1ndose en el argumento empresarial que sostiene que la revisi\u00f3n humana acarrear\u00eda costos adicionales.<\/p>\n<p class=\"bibliografia separador-bibliografia\"><strong>Proyecto<\/strong><br \/>\n<em>D\u00e9j\u00e0 vu<\/em>: Coherencia temporal, espacial y de caracterizaci\u00f3n de datos heterog\u00e9neos para el an\u00e1lisis y la interpretaci\u00f3n de la integridad (<a href=\"https:\/\/bv.fapesp.br\/pt\/auxilios\/98398\/deja-vu-coerencia-temporal-espacial-e-de-caracterizacao-de-dados-heterogeneos-para-analise-e-inter\/?q=17\/12646-3\" target=\"_blank\" rel=\"noopener noreferrer\">n\u00ba 17\/12646-3<\/a>);<strong> Modalidad<\/strong> Proyecto Tem\u00e1tico; <strong>Investigador responsable<\/strong> Anderson de Rezende Rocha (Unicamp<strong>); Inversi\u00f3n <\/strong>R$ 1.385.219,47<\/p>\n<p class=\"bibliografia\"><strong>Art\u00edculos cient\u00edficos<\/strong><br \/>\nRIBEIRO, M. H. <em>et al<\/em>. <a href=\"https:\/\/arxiv.org\/abs\/1908.08313\" target=\"_blank\" rel=\"noopener noreferrer\">Auditing radicalization pathways on YouTube<\/a>. <strong>arXiv<\/strong>. 22 ago. 2019.<br \/>\nCAETANO, J. A. <em>et al<\/em>. <a href=\"https:\/\/arxiv.org\/abs\/1905.00825\" target=\"_blank\" rel=\"noopener noreferrer\">Characterizing attention cascades in WhatsApp groups<\/a>. <strong>Proceedings of the 10th ACM Conference on Web Science<\/strong>. p. 27-36. 26 jun. 2019.<\/p>\n","protected":false},"excerpt":{"rendered":"De qu\u00e9 manera absorbe patrones discriminatorios la inteligencia artificial y qu\u00e9 puede hacer la ciencia para evitar tales distorsiones","protected":false},"author":131,"featured_media":334669,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"_exactmetrics_skip_tracking":false,"_exactmetrics_sitenote_active":false,"_exactmetrics_sitenote_note":"","_exactmetrics_sitenote_category":0,"footnotes":""},"categories":[192],"tags":[270,288,1169,330,333],"coauthors":[440],"class_list":["post-334668","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tecnologia-es","tag-antropologia-es","tag-computacion","tag-matematica-es","tag-sociologia-es","tag-tecnologia-de-la-informacion"],"acf":[],"_links":{"self":[{"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/posts\/334668","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/users\/131"}],"replies":[{"embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/comments?post=334668"}],"version-history":[{"count":1,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/posts\/334668\/revisions"}],"predecessor-version":[{"id":334685,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/posts\/334668\/revisions\/334685"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/media\/334669"}],"wp:attachment":[{"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/media?parent=334668"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/categories?post=334668"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/tags?post=334668"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/revistapesquisa.fapesp.br\/es\/wp-json\/wp\/v2\/coauthors?post=334668"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}