A lo largo de este año y hasta el próximo mes de abril, el ingeniero y científico de la computación Virgílio Augusto Fernandes Almeida analizará, como investigador del Instituto de Estudios Avanzados de la Universidad de São Paulo (IEA-USP), las ventajas y desventajas de la interacción entre las personas y los algoritmos, que captan y filtran información a través de internet, seleccionan noticias, recomiendan películas, deciden sobre la calidad del tratamiento médico de cada paciente; en definitiva, que influyen y a veces modelan las actividades humanas y la organización social (lea en Pesquisa FAPESP, edición nº 266).
Como profesor emérito del Departamento de Ciencias de la Computación de la Universidad Federal de Minas Gerais (UFMG) y profesor asociado del Centro Berkman Klein para Internet y Sociedad, de la Universidad Harvard, en Estados Unidos, lleva años mirando con desconfianza a los algoritmos, últimamente junto a otros colegas de la ciencia política.
Especialidad
Ciencias de la computación
Institución
Universidad Federal de Minas Gerais (UFMG)
Estudios
Título de grado en ingeniería eléctrica por la UFMG (1973), maestría en informática por la Pontificia Universidad Católica de Río de Janeiro (1980) y doctorado en ciencia de la computación por la Vanderbilt University (1987)
Producción
170 artículos científicos y coautoría en seis libros publicados en inglés y traducidos al portugués, al coreano y al ruso
Como secretario de Política Informática del Ministerio de Ciencia, Tecnología e Innovación (MCTI), cargo que ocupó entre 2011 y 2016, y coordinador del Comité de Gestión de Internet en Brasil (CGI), este docente oriundo de Belo Horizonte (Minas Gerais) participó en la elaboración de la normativa que estructuró el universo digital en Brasil y acompañó la gestación del Marco Civil de Internet, aprobado en 2014.
Desde hace años en el suplemento Pensar del periódico Estado de Minas, y desde 2019 en Valor Econômico, en colaboración con el economista Francisco Gaetani, de la Fundación Getulio Vargas, ha dado a conocer estos temas al público masivo, a menudo recurriendo a extractos de las obras de sus autores preferidos, tales como el argentino Jorge Luis Borges (1899-1986), el alemán Thomas Mann (1875-1955) y los mineiros João Guimarães Rosa (1908-1967) y Carlos Drummond de Andrade (1902-1987).
En una conversación mantenida a través de una plataforma de video desde su casa, en un condominio serrano de Nova Lima, en el Área Metropolitana de Belo Horizonte, Almeida expuso sus preocupaciones y propuestas ante problemas actuales, como la moderación de contenidos y la definición de los roles del gobierno, las empresas y los usuarios de internet. El científico está casado con la ingeniera Rejane Maria y tiene dos hijos, Pedro, de 40 años, y André, de 38, un nieto y otro en camino que nacerá en los próximos meses.
En mayo, usted publicó un artículo en coautoría con los politólogos Fernando Filgueiras, de la Universidad Federal de Goiás, y Ricardo Mendonça, de la UFMG, sobre gobernanza del mundo digital. ¿Cómo es trabajar con gente del campo de las ciencias humanas?
Ha sido estupendo. Estoy aprendiendo mucho. No es nada sencillo el trabajo multidisciplinario. Se plantean dificultades en cuanto al lenguaje, los estándares de otras áreas de la cultura y los conocimientos previos, pero tenemos que hallar un modo para avanzar. Estamos redactando juntos un libro para la Universidad de Oxford que aborda el impacto de los algoritmos en las instituciones de la sociedad.
¿Las ciencias sociales pueden aportar algo a la gobernanza de los algoritmos?
Sí, y mucho, porque los algoritmos y las tecnologías que controlan tienen un impacto social. ¿Cómo reacciona la gente? ¿Cómo cambia su comportamiento en función de ello? El mundo digital es un ámbito público, donde la gente revela aspectos desconocidos y no civilizados, sobre todo en sus comentarios. Es un mundo que puede ser fácilmente engañoso. Durante muchos años escribí en el diario Estado de Minas, siempre tratando de combinar la literatura con las tecnologías de computación para ayudar a la gente a percibir otros perfiles de la realidad. En uno de mis artículos recurrí a un libro del escritor argentino Adolfo Bioy Casares [1914-1999], en el que el narrador se enamora de una hermosa muchacha. Era un amor imposible, porque sus imágenes eran producto de la creación de una máquina.
Otro artículo suyo de 2016, junto al abogado Danilo Doneda, ya trataba sobre la gobernanza de y por los algoritmos.
Conocí a Doneda, un experto en protección de datos personales, cuando trabajé en Brasilia, y empezamos a debatir sobre la gobernanza de y por los algoritmos. ¿Qué significa eso? Las plataformas digitales son gobernadas por los algoritmos. No hay gente trabajando en esas plataformas. Los algoritmos las gobiernan diciéndoles lo que va a ganar visibilidad a partir de los datos y preferencias personales que recaban cada vez más. Esto es la gobernanza por el algoritmo, que también se ha expandido a otros segmentos. En el sector de las finanzas, el algoritmo es quien dice si una persona puede acceder a un préstamo o no. En las aplicaciones de la movilidad, es el algoritmo el que proporciona el recorrido y el precio del pasaje. En un mundo con casi 8.000 millones de habitantes, con innumerables problemas, los algoritmos son esenciales para controlar el flujo aéreo y la distribución de la energía. Son esenciales, pero también deciden sobre la vida de las personas de una manera que no siempre puede considerarse justa. Los problemas potenciales que esto presenta son: discriminación, exclusión de determinados grupos e injusticia. El otro aspecto es la gobernanza de los algoritmos, entender cómo funcionan y cómo debe exigírseles cierta transparencia. En Estados Unidos, varios tribunales utilizan un programa denominado Compass, que muestra si un acusado tiene derecho o no a la libertad condicional. Ni el gobierno ni los jueces conocen los criterios de análisis de ese algoritmo. Los creadores del programa no lo dan a conocer alegando que se trata de un secreto comercial, amparándose en las leyes que rigen en el país.
¿Qué ha sido propuesto al respecto de la gobernanza de los algoritmos?
El gobierno y la sociedad civil de varios países han debatido esta cuestión. Un punto sobre el cual ya existe cierto consenso es que los algoritmos tienen que ser justos, transparentes y explicables. Son criterios muy difíciles de aplicar, porque un algoritmo es un código complejo de datos que se modifica a cada instante. La mayoría de ellos utiliza el aprendizaje automático y varía según lo que va aprendiendo. En Europa, una de las preocupaciones es que los algoritmos deben ser explicables para alguien que se sienta perjudicado por una decisión. Cuando Doneda y yo redactamos ese artículo, queríamos aplicar las ideas de la gobernanza de internet a la gobernanza de los algoritmos, estableciendo, por ejemplo, que ellos deberían seguir normas predeterminadas por las comisiones multisectoriales de cada país.
¿Funcionó?
No, porque el problema persiste. Hace dos años, Manoel Ribeiro, un alumno de maestría al que codirigimos con mi colega Wagner Meira Jr., realizó un trabajo que tuvo repercusión mundial. Estudió cómo se radicalizan las opiniones de la gente en los grupos de YouTube con diferentes matices políticos. Demostró que una persona podía empezar en un grupo de centro y evolucionar hacia la radicalización que propugnaba la supremacía blanca [lea en Pesquisa FAPESP, edición nº 287]. Pero no pudimos identificar el papel del algoritmo. Todo esto se mide desde el lado exterior. No hemos conseguido acceder al lado de dentro, porque las empresas no revelan los algoritmos. Esto es gravísimo.
No deberíamos trasladar al ámbito online la desigualdad presente en el espacio físico, pero esto no es lo que vemos
¿Qué más ha estudiado su grupo?
Un alumno que obtuvo su doctorado en 2019, Gabriel Magno, planteó la siguiente pregunta: ¿los valores sociales y morales migran del mundo físico al mundo online? Para responderla, analizó 1.200 millones de tuits, utilizando una base de investigación sociológica, Word Value Server [WVS], y técnicas de inteligencia artificial para mapear los tuits de 50 países. En algunos, las visiones del mundo físico y digital coinciden, pero en otros son diferentes, debido a las restricciones de acceso y de género. En Oriente, las mujeres están mucho más limitadas para expresarse. En Brasil, algunos valores coinciden y otros no. En Argentina ocurre algo muy interesante: el tema del aborto es visto de manera diferente por un sociólogo y por el movimiento más progresista que aparece en internet. Magno participó en un trabajo con una exalumna, Camila Araújo. Ella ideó un robot que entraba en los motores de búsqueda de Google y Bing de 42 países y buscaba mujeres bellas y feas. Optaba por la respuesta por imagen y utilizaba un algoritmo de inteligencia artificial para estimar el rango de edad, raza y color de las personas que respondían. Los resultados fueron sorprendentes.
¿Qué indicaban?
En Nigeria y en Kenia, el estándar de belleza apuntó a las mujeres jóvenes y rubias. Esto es muy importante, porque los jóvenes lo tomarán en cuenta para posicionarse en el mundo. Para determinar por qué ocurría esto, Araújo y Magno comenzaron a averiguar de dónde procedían las fotos que representaban a las mujeres hermosas y feas. Notaron que las imágenes podían agruparse según el idioma: inglés, español, portugués y chino. En el grupo del inglés, predominaban los países más ricos, tales como Estados Unidos, Canadá, Australia e Inglaterra. Los países africanos colonizados de habla inglesa recibían las imágenes, pero no representaban a su propia población. Para obtener un resultado compatible con la demografía del lugar, había que hacer una opción de búsqueda local, no global.
En otras palabras, la forma en que recabamos los datos interfiere en el resultado de la búsqueda.
Exacto. Una línea de investigación muy reciente en Estados Unidos e Inglaterra justamente trata sobre ello. Lo llaman data colonialism, el colonialismo de los datos. Es un tema preocupante, porque las grandes empresas precisan datos de todo el mundo para entrenar a sus algoritmos faciales para recomendar sitios web o noticias, pero los países más pobres no dominan la tecnología, solo tienen los datos, que ceden sin saberlo y sin quererlo. Se trata de una intervención colonialista, porque las grandes empresas operan en esos países, ya no extrayendo un recurso natural, sino información, que utilizan para ampliar su dominio económico.
¿Qué se discute en su grupo de la Universidad de Harvard?
El Centro Berkman Klein para Internet y Sociedad se creó hace más de 20 años. Se trata de un centro multidisciplinario vinculado a la escuela de derecho, pero también involucra a las de ingeniería, computación y medicina. Los temas más recurrentes entre sus afiliados y grupos de investigación son la desigualdad económica y social, y la discriminación racial, étnica y por la orientación sexual. La brecha entre el territorio físico y el digital es otro de los temas que está en el candelero. La gobernanza la establecen, sobre todo, unas pocas empresas situadas en el hemisferio norte, especialmente en Estados Unidos. Yo me pregunto: ¿abarcan todo el universo digital? ¿Las reglas deberían ser las mismas?
¿Usted qué piensa?
Por supuesto que no deberían. Las culturas y los hábitos son diferentes. La desigualdad entre los países ricos y pobres es tremenda. Una de mis preocupaciones radica en que la gobernanza del mundo digital no solo está en manos de gobiernos, sino también de empresas, que llegan a monitorear mucho más que los servicios secretos de los países y pueden utilizar las informaciones con fines totalitarios. Otra de mis inquietudes es que no deberíamos trasladar al espacio virtual las desigualdades del espacio físico, pero eso no es lo que estamos viendo. Los científicos estadounidenses han analizado millones de datos sobre las personas ingresadas a los hospitales del país. El algoritmo que realizaba la recepción y determinaba la derivación del paciente definía el límite de costo del tratamiento en función del seguro médico. Los investigadores notaron que, para dos personas internadas con el mismo nivel de gravedad, una negra y otra blanca, el algoritmo asignaba un presupuesto menor a la persona negra. Así, pues, los médicos disponían de menos recursos para el tratamiento de los pacientes negros. Lo más asombroso es que los datos de ese programa, utilizado para planificar la atención, coincidían con el comportamiento de los hospitales del sistema de salud. La investigación puso en evidencia la discriminación, algo que podría corregirse.
¿De qué manera?
Esos sistemas le pertenecen a empresas que tienen objetivos comerciales. Pero la computación y la ingeniería podrían servir para detectar estas fallas sociales, como la discriminación, mostrándole a la sociedad cómo operan esas plataformas y refutando los argumentos de las empresas. En 2015, la entonces presidenta Dilma Rousseff fue invitada a visitar Estados Unidos. Yo formé parte de la comitiva, porque era el secretario de Política Informática del MCTI. En una reunión organizada por la exsecretaria de Estado estadounidense Condoleezza Rice, estaban, entre otros, Mark Zuckerberg, de Facebook, Erick Schmidt, de Google, Dara Khosrowshah, de Uber, todos en una sala y la presidenta en el centro, respondiendo sus preguntas. Yo me quedé detrás, observando. Ninguno de esos megaempresarios preguntó si Brasil otorgaría algún incentivo para atraer a sus empresas, sino que plantearon cuestiones de índole operativa y regulatoria, si algo podía hacerse o no y cuáles eran las reglas. Las empresas, o al menos gran parte de ellas, quieren reglas, lo que llamamos regulación, porque crean seguridad y pueden minimizar los problemas. Uno de ellos, muy difícil de resolver, es la moderación de los contenidos.
¿Por qué?
La moderación de los contenidos es local y depende del idioma, de la cultura y del prestigio político y económico de cada región. En Facebook, gran parte de los recursos de moderación se destinan cinco países de habla inglesa; para los idiomas y países menos importantes, es mucho menos elaborada. La moderación también es difícil porque un contenido que hoy podría aceptarse en determinados grupos a menudo se considera ofensivo en otros. ¿La tecnología puede resolverlo? En parte, porque a cada minuto se suben millones de videos y cientos de millones de mensajes quedan a disposición de todo el mundo cada día. La moderación de contenidos requiere algoritmos y la ayuda de un ejército de personas para intervenir cuando los algoritmos quedan en una franja gris, cuando no se sabe si algo puede aceptarse no. Los algoritmos detectan la pornografía infantil, pero el nivel de sutileza es enorme en asuntos políticos y religiosos. Es importante que las leyes hagan responsables a las empresas de los contenidos indeseables para que puedan perfeccionar sus sistemas. Es un problema complejo de esta nueva sociedad digital global.
¿Ya existen principios en este nuevo orden digital?
Algunos países están formulando normas. La Unión Europea ha elaborado una legislación, la Ley de Servicios Digitales, que todavía no ha entrado en vigencia. En Alemania se ha definido el concepto de contenido ilegal online; el país ya disponía de una normativa en cuanto a lo que era offline, a causa del nazismo. Uno de los fundamentos que rigen en Europa es: los derechos y responsabilidades offline deben extenderse a lo online. En Brasil, el PL 2.630 [Proyecto de Ley nº 2.630/20, que instituye la Ley Brasileña de Libertad, Responsabilidad y Transparencia en Internet] establece esos límites, pero se encuentra trabado en el Congreso. He comprobado que son las crisis las que hacen que las cosas progresen. El Marco Civil de Internet salió después de que Edward Snowden filtrara información de seguridad de Estados Unidos en 2013, y la Ley General de Protección de los Datos Personales tras el caso de Cambridge Analytics [una empresa británica que en 2014 recopiló información de hasta 87 millones de usuarios de Facebook y la utilizó para influir en la opinión de los electores en diversos países]. Las reglas también deben tener límites, porque si ciertos contenidos se definen como ilegales, es posible que las empresas tecnológicas, temerosas de ser objeto de multas o sanciones, se anticipen y empiecen a prohibirlos ejerciendo así una censura política o económica.
Para gobernar el espacio digital, tenemos que reunir a todos los participantes: gobierno, empresas y sociedad civil
Usted trabajó en empresas durante 10 años, antes de convertirse en docente de la UFMG, en 1989. ¿A qué se dedicó?
Durante el cuarto y quinto año de la carrera de ingeniería, trabajé como pasante en el centro de computación de la UFMG. Luego, en 1973, cuando me gradué, me presenté a concurso para el área de sistemas de Petrobras, en Río de Janeiro. Dos años después tuve una oferta, regresé a Belo Horizonte y trabajé ocho años en el sector de planificación de sistemas en Cemig [Companhia Energética de Minas Gerais]. Ahí, trataba de entender cómo funcionaban los sistemas y pensaba cómo podría mejorar su funcionamiento. Todo estaba alejado de la gente, tanto que la computadora se encontraba aislada. Me enviaron a hacer una maestría y así lo hice. Mi director de tesina en la PUC-Río [Pontificia Universidad Católica de Río de Janeiro] era Daniel Menasce. Nos hicimos amigos y juntos, escribimos seis libros. Los años trabajando en empresas me ayudaron mucho a enfocarme en la búsqueda de resultados. Cuando finalicé el máster, surgieron nuevos intereses y pensé en hacer un doctorado en Estados Unidos. Mi padre me dijo: “Me parece una locura que dejes un buen empleo para irte a Estados Unidos con dos niños pequeños”. Igual me fui, y después de muchos años me di cuenta que mi padre tenía razón. El regreso a Brasil se hizo difícil, porque no tenía un vínculo laboral formal, y estuve dos años como becario aguardando la apertura de un concurso en la UFMG, porque queríamos seguir viviendo en Belo Horizonte.
¿Cómo fue su trabajo en el gobierno?
A finales de 2010, recibí un llamado telefónico de Jorge Kalil, un científico de São Paulo, invitándome a cenar en su casa. Él había convocado a algunos de los miembros de la Academia Brasileña de Ciencias, de la cual yo era miembro, para conversar sobre ciencia y tecnología. En esa cena estaba el senador Aloizio Mercadante, quien se convertiría en ministro de esa cartera. Mercadante quería que me hiciera cargo de la Secretaría de Política Informática, una de las cinco del ministerio. Nunca antes había formado parte del gobierno. Estaba muy preocupado, porque Brasilia es otro mundo, pero un amigo de la facultad de filosofía me dio un consejo interesante: “En las relaciones en Brasilia, quédate siempre en el living, nunca entres a la cocina. Mantente a una distancia formal”. Eso me fue muy útil. Pasé cinco años en Brasilia.
¿Cómo fue ese período?
La función de la secretaría era formular y acompañar las políticas, en ese entonces de informática; hoy en día tal vez se las llamaría políticas digitales. Como secretario, también era el coordinador del Comité Gestor de Internet (CGI), creado en 1995. En el CGI aprendí sobre los problemas de gobernanza de internet, es decir, que había que establecer reglas para que la sociedad pueda adecuarse al funcionamiento de este territorio digital y participar en su organización. Internet estaba empezando a crecer mucho y a formar parte de los negocios y del gobierno, pero aún no había reglas. Se produjo un acontecimiento que le dio una dimensión mayor a la secretaría e hizo que yo asumiera un rol más activo de lo que imaginaba.
¿Cuál fue ese acontecimiento?
A finales de 2013, estallaron las revelaciones de Snowden sobre los espionajes del gobierno estadounidense en todo el mundo, que incluso mostraban que la presidenta, Dilma Rousseff y empresas brasileñas como Petrobras habían sido espiadas. La presidenta designó formalmente una comisión para ocuparse de esta cuestión: “Tenemos que tener una respuesta como país y pensar cuáles son las reglas para internet”, recomendó. El caso Snowden dejó al mundo preocupado, sin saber qué hacer con el creciente espionaje digital. También causó malestar el hecho de que la organización a cargo de establecer los nombres y dominios, las direcciones de internet, Icann [Internet Corporation for Assigned Names and Numbers, Corporación de Internet para la Asignación de Nombres y Números], tuviera su sede en California y, por lo tanto, estuviera sujeta a las leyes locales, aunque su impacto fuera global. La respuesta de Brasil fue plantear la necesidad de una reunión global. Hacia finales de 2013, me encontraba en una reunión en Seúl (Corea del Sur) y recibí una llamada telefónica del ministro Marco Antonio Raupp [1938-2021] diciéndome: Viaja a Bali (Indonesia), porque vamos a iniciar un proceso para convocar a una reunión internacional en Brasil para debatir sobre el tema del espionaje y el futuro de internet”. Participé en varias reuniones en Londres con el propósito de crear un gran encuentro internacional que pasó a denominarse NETmundial. No era una reunión de gobierno. Es complejo pensar en la gobernanza de internet justamente porque no se trata solamente de un gobierno en sí. Los cables submarinos y toda la infraestructura de internet pertenecen a empresas de telecomunicaciones privadas. El desarrollo de los contenidos y los servicios digitales es de toda la sociedad. En los servidores, se emplea software de uso libre. Se trata de un mundo que no es potestad de los gobiernos, aunque estos tengan, cada vez más, la pretensión de gobernarlo. Está la sociedad civil, el sector privado y la academia, ya que parte de todo esto nació de proyectos académicos en Estados Unidos, financiados por el sector militar. Es un espacio multisectorial. Para gobernarlo, hay que reunir a todos los participantes. Esta era, precisamente, la misión del CGI brasileño. Son veintiún miembros: nueve del gobierno, cuatro del sector privado, cuatro de las ONG [organizaciones no gubernamentales], tres de la comunidad académica y un representante de notorio conocimiento en materia de internet, designado por el ministerio. Ningún sector tiene, por sí solo, la mayoría de los votos.
¿Cómo acuerdan las decisiones?
Todo debe negociarse. La negociación lleva tiempo, pero una vez alcanzado un consenso, la resolución es más duradera y tiene mayor aceptación que si fuera unilateral. Durante los cinco años en que fui el coordinador, evité las votaciones, porque el voto separa y crea grupos. Es preferible que el proceso se extienda y se encuentre un común denominador. Es extremadamente difícil, pero con paciencia, funciona. Yo solamente era el coordinador y trataba de lograr un consenso. Para hacer posible NETmundial en abril de 2014, la presidenta trabajó junto a los líderes del Congreso para aprobar la ley del Marco Civil de Internet. El gran interrogante era la llamada neutralidad de las redes. Las empresas no querían que la red fuera neutral, pero la cuestión política llevó al Congreso a aprobarla y, en la apertura del encuentro de la NETmundial, el 23 de abril de 2014, la presidenta sancionó la Ley del Marco Civil de Internet.
¿En qué consiste la neutralidad de la red?
Las comunicaciones en internet utilizan protocolos denominados TCP/IP [protocolo de control de transmisión/protocolo de internet]. Los contenidos se dividen en paquetes pequeños y viajan por la red. Tienen origen y destino. La neutralidad de la red implica que las empresas por donde pasan los paquetes no pueden hacer diferencias en el tratamiento de los mismos en función de su origen y destino. Deben ser neutras, no pueden interferir. En ese entonces, esto era importante porque establecía que una empresa de telecomunicaciones no pudiera bloquear Skype, por ejemplo, aunque este fuera competidor de un servicio de comunicación propio. Otra preocupación residía en que esas empresas no podrían darle un trato preferencial a uno u otro servicio determinado.
Pretendo identificar formas de colaboración que preserven la individualidad y no dejen que el algoritmo haga todo
¿Las empresas aceptaron la neutralidad?
Fue una negociación difícil, pero el Marco Civil de Internet le dio una garantía a las empresas, porque generó un ambiente estable y seguro. La ley establecía que cualquier contenido solo podía ser removido con una orden judicial. Si no fuera por el marco civil, la confusión en las elecciones de 2018 podría haber sido aún mayor, porque algún político podría querer eliminar de internet un contenido que le desagradase. Brasil fue uno de los pioneros en la neutralidad de la red y de la organización multisectorial de internet. Nuestro prestigio era inmenso. A la NETmundial asistieron 1.100 personas de más de 100 países, ministros de Estado y 100 periodistas internacionales. Los debates eran en vivo y había 30 núcleos internacionales. Los distintos grupos debatían los temas siempre en salas separadas y había una pantalla donde se proyectaban las modificaciones que se hacían a los textos para que todo el mundo pudiera ver lo que estaba sucediendo. En las reuniones formales, había un gran escenario con cuatro micrófonos: uno para los representantes de los gobiernos, uno para el sector privado, uno para la sociedad civil y otro para la comunidad técnica y académica. Si alguien de un gobierno hablaba, el siguiente no podía ser alguien de otro gobierno, debía esperar el turno de los representantes de los otros tres sectores.
¿Cuál fue el resultado de esa conferencia?
Se suscribieron dos documentos, el primero incluía 10 principios para la gobernanza de internet, y el otro era un road map, una hoja de ruta, con vistas al futuro. La aprobación fue por aclamación. Solo hubo tres países que no aceptaron los documentos: India, Cuba y Rusia. El prestigio que adquirió Brasil fue enorme. En 2017, me invitaron a sumarme a una comisión internacional de 25 miembros para discutir las normas para la seguridad del ciberespacio. Esa comisión celebró reuniones durante dos años en varios países, pero no vino a Brasil porque se produjeron cambios en el gobierno. Perdimos relevancia.
En el pasado mes de abril asumió la cátedra Oscar Sala del Instituto de Estudios Avanzados de la USP. ¿Cuáles son sus planes?
El tema que escogí es la integración humano-algoritmo, porque los algoritmos influyen sobre nosotros todo el tiempo. Cuando uno está viendo una película en Netflix, el algoritmo, repentinamente, sugiere otra cosa y, a menudo, aceptas y pasas a otra película. Los llamados algoritmos de recomendación tratan de dirigir el comportamiento de las personas. Suele producirse lo que podríamos denominar efecto manada, cuando el algoritmo incita a seguir un camino indeseable, soslayando lo que la gente realmente quiere. Tenemos que entender mejor esta reducción del rol del ser humano y la exacerbación de la función del algoritmo. En el medio surge un término interesante que es la complacencia, cuando uno se acostumbra a las cosas y hacemos lo que indica Google. Pero, ¿es lo que me recomienda ante una consulta lo que realmente debería mirar? Pretendo entender esta interacción desde un punto de vista más amplio, no solo desde la computación, sino desde las ciencias humanas. Lo que también me preocupa es identificar otras formas de colaboración, que preserven la individualidad y no dejen que el algoritmo haga todo.