Al marcar presencia en el área de la ciencia de la computación desde la década de 1980 como docente e investigadora, Maria das Graças Volpe Nunes sabe lo que los programas de inteligencia artificial (IA) más recientes pueden o no hacer, más allá de las exageraciones con las que se los presenta. En la siguiente entrevista, concedida a través de una plataforma de video, ella expone los equívocos más comunes relacionados con esta área, como el de suponer que la máquina entiende lo que le preguntamos, cuando a decir verdad tan solo proporciona las secuencias de vocablos más probables para acompañar a las palabras que se le plantearon.
También advierte sobre la falta de cuestionamiento al respecto del alcance y de los eventuales errores de estos programas. “Si algo sale mal, a quién debería culparse: ¿a la máquina, al programador o a la persona que le proporcionó información a la máquina?”, se pregunta Nunes, de 65 años, quien con una carrera hecha en el Instituto de Ciencias Matemáticas y Computación de la Universidad de São Paulo (ICMC-USP), en la ciudad paulista de São Carlos, y actualmente jubilada, sigue trabajando en la institución como profesora sénior.
Procesamiento del lenguaje natural (PLN)
Institución
Instituto de Ciencias Matemáticas y Computación de la Universidad de São Paulo (ICMC-USP)
Estudios
Título de grado en ciencias de la computación por la Universidad Federal de São Carlos (UFSCar, 1980), maestría en ciencias de la computación por la Universidad de São Paulo (USP, 1985) y doctorado en informática por la Pontificia Universidad Católica de Río de Janeiro (PUC-RJ, 1991)
La investigadora se especializó en un área de la IA, el procesamiento de lenguaje natural (PLN), que investiga la construcción de sistemas que procesan el lenguaje humano, ya sea escrito o hablado. Fue la coordinadora del grupo que, en la década de 1990, desarrolló el Corrector Gramatical Automático para Portugués, un proyecto pionero en Brasil ejecutado en colaboración con el entonces fabricante de computadoras Itautec-Philco y apoyado por la FAPESP. El corrector fue incorporado por Microsoft al procesador de textos de Windows, disponible para los consumidores brasileños.
Está casada con el matemático Wagner Vieira Leite Nunes, profesor jubilado del ICMC-USP, y tienen un hijo psicólogo ‒Bruno‒ de 30 años. También escribe crónicas y cuentos, archivados en un sitio web, bajo el seudónimo de Anelê Volpe.
A usted se la conoce sobre todo por el corrector o revisor gramatical en portugués que su grupo creó en la década de 1990. ¿Qué han hecho después de eso?
Hemos hecho muchas cosas. Soy una investigadora de la inteligencia artificial en un campo muy concreto, el procesamiento de lenguaje natural, que estudia la construcción de sistemas que procesan el lenguaje humano, ya sea escrito u oral. Lo llamamos lenguaje natural para diferenciarlo de otros tipos de lenguaje, tales como el de programación, el lenguaje gráfico y el matemático, entre otros. Estos sistemas pueden revisar y corregir textos, traducir de un idioma a otro ‒los llamados traductores automáticos‒, resumir o simplificar un texto, responder preguntas ‒los chatbots‒, analizar la coherencia de un texto y su adecuación a un objetivo determinado. Por su complejidad, el proyecto del revisor gramatical del ICMC-USP llevó a la creación del Nilc, el Núcleo Interinstitucional de Lingüística Computacional, que formó a una gran cantidad de lingüistas computacionales, hoy en día desperdigados por universidades brasileñas e internacionales. Ese equipo estuvo a cargo de la creación de los importantes recursos necesarios para el procesamiento del portugués brasileño.
¿Cuáles eran esos recursos?
Hablamos de diccionarios, léxicos, programas, en definitiva, los recursos lingüísticos computacionales que necesitábamos para procesar la lengua portuguesa que hasta entonces no existían. Nuestro grupo se hizo conocido y se convirtió en un aglutinador de personas trabajando por todo Brasil. Concretamos varias colaboraciones, convenios y proyectos. A partir de ello, también se fortalecieron otros equipos de investigadores. Hoy en día existen grupos de PLN muy activos en prácticamente todas las universidades y centros de enseñanza de Brasil. Desde 1993, la comunidad de PLN en portugués organiza cada dos años la conferencia Propor [International Conference on Computational Processing of Portuguese Language]. Se celebra alternativamente en Brasil y Portugal para presentar los resultados de investigaciones académicas y tecnológicas e integrar a los grupos de investigación del área. La última se llevó a cabo en marzo en Galicia (España), ya que muchos consideran que el gallego y el portugués son variantes de un mismo idioma.
¿Qué llevan hecho en conjunto con portugueses y españoles?
Con los portugueses mantenemos un contacto fluido, con el Propor como principal iniciativa. Con los españoles las relaciones se concretan a través de proyectos de cooperación científica e intercambio de estudiantes. A finales de la década de 1990 tuvimos un proyecto de traducción conjunto con la Universidad de Alicante. Este es un tema con el trabajamos desde hace mucho tiempo. Por la misma época, nos sumamos a un gran proyecto de traducción automática multilingüe de la Universidad de las Naciones Unidas con representantes de cada idioma de la ONU. A diferencia de lo que ocurre en la actualidad, en aquella época los sistemas de traducción se hacía para cada par de lenguas. Ese proyecto, que consideraba la existencia de un lenguaje lógico intermedio, el UNL [Universal Networking Language], preveía un decodificador y un codificador UNL para cada lengua natural. Así, cada equipo responsable de una lengua tenía que desarrollar solamente esos dos sistemas para su idioma. Una vez disponibles todos esos pares, cualquiera podía traducir archivos de texto en cualquier idioma al propio y viceversa. Nosotros, en el Nilc, nos hicimos cargo del decodificador y el codificador del idioma portugués.
Nuestro grupo de la USP se hizo conocido y se convirtió en un aglutinador de gente diseminada por todo el país
¿Funcionó?
No. Por dos razones. Una de ellas técnica: para que este lenguaje intermedio fuera realmente bueno tendría que ser universal, capaz de abarcar los significados de todas las lenguas. Como de alguna manera debía materializarse, eligieron el inglés. Se suponía que los términos en inglés podían representar de forma unívoca todos los conceptos de todos los idiomas, pero esto no es así. La otra limitación fue política. Cada equipo ‒y había decenas‒ defendía su punto de vista y no se llegaba a ningún acuerdo. No funcionó, pero desde el punto de vista del PLN aprendimos mucho y armamos varios proyectos de maestría y doctorado en el Nilc utilizando recursos de traducción automática. Poco después, la tecnología de aprendizaje automático [programas que aprenden a partir de datos] dominó este campo y dio lugar a traductores automáticos muy superiores, como Google Traductor.
Además del corrector, ¿su grupo lanzó algún otro producto comercial?
No directamente. Aunque el Nilc nació como un generador de productos, no tiene ese objetivo. Lo que más nos importa es el avance del conocimiento. El núcleo es un centro de investigación y construcción de recursos básicos para el procesamiento del portugués, que incluye analizadores sintácticos, semánticos y diccionarios, que constituyen la base del conocimiento lingüístico. Brindamos acceso irrestricto a todo lo que hemos hecho. Las aplicaciones desarrolladas en el ámbito académico suelen ser prototipos para demostrar las ideas propuestas. Los productos comerciales son fruto de proyectos en asociación con empresas, como es el caso del corrector o revisor, que contó con el apoyo de Itautec. Hoy en día es más común que las empresas inviertan en los grupos académicos en un primer momento y después, sus equipos internos completan el trabajo desarrollado en la academia. Entre los proyectos ya realizados y en curso, algunos prototipos incluyen resumidores automáticos [herramientas que elaboran resúmenes de noticias o de documentos diversos] y sistemas que simplifican textos para adaptar el lenguaje a niños o adultos poco letrados. También existen herramientas que detectan fake news, ayudan a redactar textos científicos y realizan transcripciones de audios, entre otras.
¿A qué atribuye los desarrollos recientes en IA?
En primer lugar, al avance de la capacidad computacional. Hoy en día las computadoras son mucho más veloces y pueden combinarse para aumentar su poder. Y en segundo orden a la computación en la nube, que amplía la capacidad de cómputo para muchas más personas. Esta alta capacidad de procesamiento hizo posible que antiguos modelos de inteligencia artificial, las redes neuronales artificiales [RNA], pudiesen demostrar su potencial real. Las RNA son modelos matemáticos de procesamiento inspirados en el funcionamiento del cerebro humano. Son programas compuestos por capas de procesamiento capaces de promover el aprendizaje de un concepto determinado a partir de muchos ejemplos del concepto en cuestión. La cantidad de datos que se proporcionan para que el programa aprenda es muy importante para el resultado final, así como la estructura de la red neuronal. Estos modelos existen desde hace mucho tiempo, pero requerían muchos datos y un gran poder computacional, del que solo ahora disponemos. Además, el modelo de aprendizaje profundo [deep learning] ha revolucionado este campo con resultados muy expresivos.
¿Todo el mundo tiene acceso a estas tecnologías?
Hablemos del PLN. Los grandes modelos de lenguaje [LLM, en inglés], que se entrenan a partir de inmensos volúmenes de datos y de parámetros, representan la lengua en la que fueron entrenados. De este modo, son capaces de generar textos con una calidad comparable a la de los humanos, y a veces incluso superior. Si bien es posible conversar naturalmente con un chatbot basado en LLM, como Chat-GPT, éste no comprende el idioma. Esta “magia” acontece debido a un complejo sistema de capas de pesos numéricos. El hecho es que en la actualidad, casi todos los problemas de PLN e IA pueden resolverse mediante LLM con un rendimiento muy superior al de los sistemas anteriores. Pero la construcción de estos modelos es muy costosa porque requieren muchos datos, mucha gente para procesarlos, servidores muy potentes y que consumen mucha energía. Tan solo las grandes multinacionales tecnológicas, las big techs, poseen esta capacidad. Para tener acceso a estos modelos hay que pagar por su mejor versión, o bien utilizar una más limitada. O incluso se pueden alquilar servidores en la nube para entrenar tu propio modelo, lo que es muy caro. En cualquier caso, todo el mundo está a merced de quienes disponen de esta tecnología. En gran medida, se ha perdido el control sobre los que estos sistemas hacen. Incluso la información lingüística clásica, como la ortografía, la gramática y el significado de las palabras, entre otras, ya no son tan necesarias. Este es un gran punto de ruptura para el PLN. Estamos a un paso de tirar por la borda todo lo que hemos hecho hasta ahora para confiar únicamente en los LLM y seguir adelante.
La gente que trabaja en sistemas basados en inteligencia artificial debería asumir un compromiso ético
¿Hace falta ser más críticos con respecto al uso de la IA?
Sí. Las personas que trabajan con IA tendrían que asumir otro tipo de compromiso ético, pero no estoy segura de que tengan noción del alcance de sus decisiones. ¿Será que apelan a su discernimiento al seleccionar los datos, previendo el impacto de sus decisiones? Creo que no. Las big techs contratan mucha gente en el mundo subdesarrollado para recopilar conjuntos de datos y entrenar sus programas. Las personas que trabajan con esos datos desconocen el propósito de aquello con lo que están trabajando. En el ámbito académico, no veo que haya una actitud de cambio del comportamiento para llamar la atención sobre esto. Es nuestro deber cuestionarlo. Del mismo modo que debemos dar a conocer cómo la IA puede ayudar a solucionar diversos problemas de la sociedad ‒en la medicina, en la agricultura, en la seguridad pública, en el bienestar‒, tenemos la obligación de advertir sobre sus límites y riesgos potenciales. Si bien no tenemos respuestas para todo, y no sabemos cómo mitigar estos problemas, al menos podemos alertar a la sociedad para que ella misma tome las medidas que quepa tomar. Es lo que hemos visto hacer a varios organismos gubernamentales en todo el mundo.
¿De ahí viene la necesidad de regular el uso de la IA?
Exacto. Tenemos que establecer regulaciones, como se está debatiendo en Brasil y en otros países (lea en Pesquisa FAPESP, edición nº 331), porque los modelos de IA generativa, entre ellos ChatGPT, tienen puntos de sombras. El principal es que los programas no son explicables. Ni siquiera los que hacen los programas saben exactamente lo que ocurre en su interior, porque son millones de combinaciones de cifras y funciones. Tampoco puede decirse cómo surgen los errores ni quién los ocasionó. Si algo sale mal, ¿a quién hay que responsabilizar: a la máquina, al programador o a quien cargó información en la máquina? ¿Y qué se puede hacer para corregirlos? No lo sabemos, porque estos programas no son explicativos. Es por ello que se dice que la IA generativa no es transparente. La empresa responsable debe explicarles a sus clientes cómo funcionan detalladamente, qué resultados pueden esperarse de ellos y en qué situaciones pueden llegar a fallar. Pero esto no ocurre. Hoy en día, muchos de los que forman parte de la comunidad de la IA estudian formas de mitigar estas deficiencias.
¿Ello se debe a la forma en que se construyen los programas?
Así es, se debe al modelo de las redes neuronales profundas, a los modelos de lenguaje, etc. Necesitamos normativas porque estos sistemas plantean un riesgo enorme de generar resultados imprevisibles y potencialmente dañinos. El problema es que la gente ya está utilizando estas tecnologías sin que existan reglas que definan qué hay que hacer para lidiar con eventuales consecuencias indeseables. Vean lo que ocurre en el caso del entrenamiento de modelos de lenguaje con datos tomados de las redes sociales. Por la propia naturaleza de las redes, el material lingüístico que se utiliza para entrenar el modelo puede estar contaminado por expresiones racistas, xenófobas, homofóbicas y otros valores indeseables, cuya propagación resulta nociva. Debemos ser muy cuidadosos. Pero no lo estamos siendo.
¿Cuáles son actualmente los grandes retos del PLN?
Paradójicamente, el éxito repentino de la tecnología de los LLM se ha convertido en un reto para el sector. ¿Cómo puede adoptarse un modelo poco transparente y escasamente manejable para resolver todo tipo de problemas? Pero existen otros. Uno de los mayores desafíos es el tratamiento computacional de la semántica de la lengua natural, es decir, lograr que un sistema sea capaz de elegir el sentido correcto expresado en una oración o en un texto. La máquina entiende muy bien el formato de una lengua. Le enseñamos lo que es una palabra, cómo articular frases gramaticalmente correctas, porque expresamos racionalmente la morfología y la gramática. No ocurre así en el caso del sentido, porque no existen reglas formales lo definan, que definan el significado. Los LLM parecen resolver el problema del significado, pero es una impresión errónea. Los modelos de lenguaje son programas que reconocen billones de palabras en su contexto, como las frases, y acaban “aprendiendo” esa lengua. Si uno les pregunta: “Hoy tengo frío, ¿qué me sugieres usar?”, el sistema responderá algo así como: “Le sugiero un pulóver”. Da la impresión de que ha entendido la pregunta.

Archivo Personal Tarjetas perforadas y disquetes utilizados en los albores de la computaciónArchivo Personal
¿No es así?
Es una ilusión. La máquina ha recibido tanta información que tan solo proporciona la frase más probable que aparece tras una serie de palabras planteada que, para el internauta, es una pregunta. El programa no tiene la menor idea de que se trata de una pregunta, porque solamente opera con series o secuencias de palabras. Somos nosotros quienes le damos sentido a lo que se ha expresado, considerándolo una respuesta adecuada a la pregunta. Nosotros tampoco sabemos cómo opera nuestra comprensión de las cosas, cómo adjudicamos un significado a las palabras y a las cosas. ¿Cómo podemos esperar construir una máquina que haga lo que ni siquiera nosotros sabemos? Hay otros problemas. Al igual que con cualquier sistema de IA, los resultados del PLN no son exactos, siempre se trata de aproximaciones a las soluciones ideales. La traducción automática es muy buena, pero no perfecta; un resumidor automático puede ser muy útil, pero no es perfecto. Tenemos que analizar los problemas éticos y los errores de los programas mientras los construimos, no después. Si el algoritmo presenta una situación de riesgo, debemos evitarla y corregirla. En lugar de tratar de hallar la solución óptima a toda costa, ¿qué tal si nos quedamos con la mejor solución que evite riesgos y daños?
¿Cómo podemos minimizar estos problemas?
Lo que podemos hacer es mostrar el conocimiento que tenemos y aclarar cómo es que suceden estas cosas. Esto es de lo que se está ocupando el grupo Brasileiras em PLN, del que formo parte y que ya cuenta con 211 miembros. En 2023 publicamos el libro Processamento de linguagem natural: Conceitos, técnicas e aplicações em português. Se trata de una edición en línea y gratuita. Hasta entonces, no había un manual tan completo sobre PLN en idioma portugués. Las compiladoras del libro, que tiene más de 60 autores, somos Helena Caselli, de la UFSCar, y yo. Queremos mantenerlo actualizado permanentemente y mostrar lo que hay detrás de los sistemas de PLN que funcionan en idioma portugués. En noviembre publicaremos la tercera edición ampliada y actualizada.
¿Existen otras iniciativas?
Desde que creamos el Nilc hemos ido creando más recursos para el portugués, como un gran corpus [colecciones de documentos] para entrenar el LLM, pero que sea lo suficientemente completo y variado como para ser representativo de la lengua que pretendemos modelar. Hay grupos de investigación como el Centro de Inteligencia Artificial, financiado por la FAPESP y por IBM, en el que participo, que hacen lo mismo. Pero todo esto demanda tiempo, dinero y recursos humanos. A finales de 2022, el mundo fue sacudido por una startup, Open AI, que lanzó ChatGPT, un chatbot que utiliza modelos de lenguas naturales, incluyendo el portugués. Veo un ansia muy grande por producir sistemas rápidamente, porque estos nuevos modelos lo permiten. Estos programas pueden utilizarse en las escuelas, pueden usarlos niños, aunque no han sido probados fehacientemente. El ChatGPT es un ejemplo. Cuando apareció, parecía ser algo maravilloso, pero pocos días después todos advirtieron que producía mucha información falsa.
¿Por qué se interesó por la programación?
Yo soy de Sertãozinho, una ciudad paulista cercana a Ribeirão Preto, y vine a São Carlos a mediados de la década de 1970 para cursar la carrera de biblioteconomía. Me encantaban los libros, aunque en aquella época no era consciente de ello. Pero solamente cursé seis meses. Necesitaba en reto mayor que ése. Como ya estaba aquí, evalué las carreras que había en las dos universidades, la UFSCar y la USP. Resolví estudiar la carrera de computación en la universidad federal, que entonces era considerada la profesión del futuro, aunque yo no tenía la menor idea de qué se trataba. De hecho, en el primer año de cursada, en 1977, no teníamos contacto con computadoras. Solamente había una minicomputadora, que de mini solo tenía el nombre, ya que se trataba de una máquina enorme. Estaba instalada en una gran sala refrigerada, donde una persona manipulaba las tarjetas y las cintas perforadas que codificaban los programas.
Antes, la cantidad de muchachos y chicas en el área de la computación era similar. Hoy en día, el número de mujeres ha disminuido bastante
¿Qué estudió en su maestría y en su doctorado?
Comencé la maestría en la USP en un área llamada análisis de algoritmos bajo la dirección de la profesora Maria Carolina Monard [1941-2022]. En mis estudios comparaba qué algoritmo realizaba la mejor búsqueda de palabras en archivos de texto, mucho antes de que existieran internet, Google y otras herramientas de búsqueda. Mi doctorado lo realicé en la PUC-RJ bajo la dirección del científico de la computación Tarcísio Pequeno, que en aquella época trabajaba con la teoría de la computación. Allí conocí a dos profesoras, Clarice Sieckenius de Souza y la jamaiquina Donia Scott, de la Universidad de Brighton, en Inglaterra, quien estaba allí durante un año sabático. Empecé a trabajar en PLN con ellas. Completé el doctorado, regresé a la USP de São Carlos, donde ya cumplía tareas docentes y enseguida arrancamos con el proyecto del corrector gramatical. Desde entonces me dediqué por entero al área del PLN y me quedé definitivamente trabajando en este campo.
¿Qué tan importante fue Monard para la IA brasileña?
Fue una pionera de las investigaciones en IA en el país. Como profesora titular del Departamento de Ciencias de la Computación del ICMC-USP, dirigió a una gran cantidad de investigadores desde la década de 1980 en adelante. Sus investigaciones siempre fueron de alta calidad y lideró el área del aprendizaje automático, responsable del gran avance de la inteligencia artificial. En ambientes predominantemente masculinos, como toda el área de las ciencias exactas y las profesiones tecnológicas, Monard fue un ejemplo para muchas jóvenes. Por desgracia, la cantidad de mujeres que optan por dedicarse a la informática ha descendido mucho en las últimas décadas. En mi época de estudiante en la UFSCar, en la tercera promoción de la carrera de ciencias de la computación, la cifra de chicos y chicas era prácticamente la misma. A medida que la sociedad se ha ido informatizando y las profesiones de computación se han ido popularizando ‒y no es que esto sea una causa‒, el número de mujeres del área ha disminuido bastante. No obstante, veo que ahora hay varios movimientos por la inclusión femenina en las ciencias exactas en general y en la computación en particular. Supongo que estos intereses van variando de tanto en tanto, dependiendo de factores que van más allá de las aptitudes de cada individuo. Sea como sea, la amplia difusión del área, la caída de los prejuicios de género y los ejemplos de mujeres que ocupan puestos de liderazgo son instrumentos eficaces para revertir este panorama.
¿Por qué se jubiló en 2013, con menos de 60 años?
Solicité la jubilación porque ya había cumplido el tiempo requerido. Consideré que ya había contribuido lo suficiente. Fui coordinadora de la licenciatura en computación y del programa de posgrado, participé en todas las comisiones posibles e imaginables. Llegué a la conclusión de que ya no me necesitaban y que en el aula, los alumnos sacarían mejor partido de docentes más jóvenes, con doctorados más recientes, ya que en las áreas tecnológicas es muy importante la actualización permanente de conocimientos. Nuestro grupo de investigación, el Nilc, estaba muy bien administrado por el profesor Thiago Pardo, quien fue alumno mío de doctorado. Tampoco me necesitaban más allí.
Se jubiló, pero no se retiró del todo, ¿verdad?
Sigo trabajando en la USP como profesora sénior. Eventualmente doy algunas clases y sigo de cerca los trabajos del Nilc. Uno de ellos es Poetisa, un proyecto que aglutina a varios grupos para la construcción del corpus del portugués oral y escrito en Brasil. Entre otras cosas, estos textos sirven para entrenar algoritmos que hacen análisis sintáctico [parsing], una tarea importante para la mayoría de las aplicaciones de PLN. Existen varios parsers de portugués, pero aún es posible mejorarlos. Es un trabajo que llevará muchos años. Otro de los proyectos del grupo trata del procesamiento del habla, coordinado por la profesora Sandra Aluísio, también del ICMC-USP. Pretendemos crear transcripciones del lenguaje hablado a partir de audios, con muestras representativas de Brasil, para luego utilizarlas en aplicaciones que usarán audio en portugués.
¿Cuándo comenzó su carrera como escritora?
Es un viejo anhelo, pero quizá antes no lo dejaba traslucir. Hoy en día reconozco que si no hubiera sido profesora me hubiera encantado ser escritora. Empecé a escribir en 2005, antes de jubilarme. Redacté algunas crónicas, me gustaron y decidí continuar. En 2007 descubrí una aplicación llamada 700 palabras. Te pedía que escribieras 700 palabras por día durante 30 días. Acepté el reto y escribí una crónica diaria durante un mes. Fue muy divertido. Ahora tengo una página web que monté al principio de la pandemia, con todo lo que había escrito. No quería publicar un libro porque eran temas muy personales y además me daba mucha vergüenza, pero en un sitio web y bajo el seudónimo de Anelê Volpe me siento más libre. Incluso he publicado un libro sobre mi historia familiar, para regalárselo a mis parientes.
