Imprimir Republish

tapa

ChatGPT inaugura una nueva era en la interacción entre seres humanos y computadoras

El software promete reinventar desde los mecanismos de búsqueda online hasta los asistentes de voz, con cuantiosas implicaciones éticas

MidjourneyIlustración producida por un software de IA a partir del comando “redes neuronales profundas de inteligencia artificial, al estilo de René Magritte”Midjourney

Desde hace años, científicos en empresas y universidades han estado diseñando y perfeccionando distintos softwares de inteligencia artificial (IA), pero esta tecnología pocas veces ha concitado la atención de la sociedad como a finales de 2022 con ChatGPT, un sistema capaz de crear textos realistas y articulados a partir de preguntas y comandos de los usuarios y simular conversaciones con un ser humano. Esta herramienta, presentada en noviembre por OpenAI, una startup con sede en California (EE. UU.), protagonizó un experimento colectivo de alcance planetario. Dos meses después de su lanzamiento ya la utilizaban más de 100 millones de personas, lo que desencadenó una explosión de experiencias de escritura, algunas divertidas, otras preocupantes. El modelo ha sido capaz de componer música, escribir poemas y códigos de programación e incluso textos periodísticos –para inquietud de los periodistas, como yo– y ha reavivado el debate: ¿cuál es el riesgo de que la inteligencia artificial, al imitat nuestra capacidad creativa y llevarla a nuevos niveles, reemplace a las personas en las actividades intelectuales? Hasta ahora, este impacto parecía restringirse a tareas de carácter repetitivo.

Resulta prematuro conjeturar en qué medida transformará esta tecnología la vida de la gente. Pero lo cierto es que se abre un nuevo horizonte de aplicaciones que prometen reinventar desde los motores de búsqueda en línea hasta los asistentes de voz, como Alexa y Siri, para permitir que las personas conversen con las computadoras y otros dispositivos electrónicos como si estuvieran hablando con seres humanos. “Hay todo un nuevo mundo de comunicación que esta tecnología va a inaugurar”, declaró Jeff Hancock, docente de la Universidad Stanford (EE. UU.), quien estudia de qué manera la comunicación mediada por sistemas de inteligencia artificial afecta a las relaciones interpersonales, a la agencia de noticias Stanford News.

El funcionamiento de ChatGPT se basa en algoritmos de redes neuronales profundas, modelos inspirados en la organización del sistema nervioso humano que se basan en el aprendizaje automático, un campo de estudio que permite extraer patrones de grandes volúmenes de datos y, partiendo de ellos, realizar predicciones. Este tipo de sistema funciona con base en unidades de procesamiento interconectadas en diversas capas, de la misma manera que las neuronas se conectan por sinapsis. En los últimos años, empresas como Google y OpenAI han pasado a dedicarse al desarrollo de un tipo específico de red neuronal artificial, los grandes modelos de lenguaje (LLM), que consiguen analizar enormes cantidades de datos de texto, identificar miles de millones de patrones referidos al modo en que las personas relacionan palabras, números y símbolos y, a partir de ello, aprender a generar nuevos textos. El desarrollo de estas herramientas ha llevado a la creación de lo que los científicos han llamado sistemas de IA generativa.

Preguntas frecuentes

¿Qué es ChatGPT?
Es un software de IA generativa que elabora textos con base en preguntas y comandos de los usuarios

¿Cómo funciona?
Funciona con base en redes neuronales profundas denominadas “grandes modelos de lenguaje”

¿Qué hacen ellas?
Analizan enormes cantidades de datos de texto e identifican miles de millones de patrones del modo en que los seres humanos relacionan palabras, números y símbolos, y aprenden a generar textos nuevos en un lenguaje natural

¿Cuál es el volumen de datos analizado por ChatGPT?
Se estima que ChatGPT ha analizado 570 gigabytes de datos de textos en internet (unos 300.000 millones de palabras), a partir de los cuales ha identificado 175.000 millones de parámetros

¿Qué son los parámetros?
Son representaciones matemáticas de patrones de texto, una especie de descripción matemática del modo en que los seres humanos escriben textos y códigos de programación

Desde 2018, Google utiliza esta tecnología en sus portales de búsqueda y traducción a partir de un software denominado Bert, que parte de modelos probabilísticos para predecir las próximas palabras de un texto basándose en el fragmento anterior, que es la forma en que Google corrige la ortografía y termina las frases de los usuarios de su buscador.

A finales de 2020, OpenAI dio un gran paso y lanzó GPT-3, un procesador de lenguaje capaz de analizar y procesar datos de texto en una escala sin precedentes. El GPT-3 pasó por meses de entrenamiento y escudriñado de cientos de gigabytes de información en internet, lo que incluyó libros, artículos científicos, páginas de Wikipedia, noticias y registros de chat online, a partir de los cuales identificó 175.000 millones de parámetros, es decir, representaciones matemáticas de modelos de texto: para hacerse una idea, Bert operaba “solamente” con 110 millones de parámetros. “Estos patrones equivalen a un mapa del lenguaje humano, una descripción matemática del modo en que redactamos textos y códigos de programación”, explica el científico de la computación Fernando Santos Osório, del Instituto de Ciencias Matemáticas y Computación de la Universidad de São Paulo (ICMC-USP).

Estos mapas permiten que GPT-3 escriba sobre cualquier tema en cualquier estilo, aunque lo que se pida parezca surrealista, como un poema dedicado al título obtenido por el club de fútbol Palmeiras en la Copa Río 1951, según las reglas de versificación de La Odisea, de Homero, o guiones de comedias románticas en universos alternativos. También consigue explicar conceptos propios de la mecánica cuántica, en una prosa clara y bien redactada, que crea la impresión de que realmente estamos hablando con un ser humano y no interactuando con un software. La misma lógica fue aplicada por OpenAI en otro tipo de tecnología de IA generativa: DALL-E, cuyo entrenamiento se basó en decenas de miles de fotografías digitales, a partir de las cuales puede generar nuevas imágenes, como algunas de las que ilustran este reportaje.

ChatGPT utiliza una versión más avanzada de GPT-3, GPT-3.5, en una interfaz conversacional amigable y fácil de usar. A diferencia de su antecesor, que fue probado por un grupo pequeño de usuarios, esta herramienta fue puesta a disposición del público en forma gratuita, lo que ha ampliado la percepción de su potencial disruptivo. En cuanto a las técnicas que utiliza, ChatGPT no es particularmente innovador. Tampoco es revolucionario, aunque el público así lo perciba, posiblemente porque ofrece una solución interactiva inédita.

Al permitir que miles de personas puedan probar su tecnología, OpenAI ha despertado tanto la fascinación del público como el apetito de los inversores, entre ellos, principalmente, Microsoft. La multinacional, que ya había invertido 1.000 millones de dólares en la startup en 2019, aportó otros 10.000 millones en enero de este año con la intención de poder incorporar la herramienta en varios de sus servicios. El motor de búsqueda Bing, por ejemplo, funciona desde principios de febrero basado en un sistema de IA más poderoso que ChatGPT. El modelo de lenguaje fue desarrollado en asociación con OpenAI y, en breve, será incorporado al navegador Microsoft Edge.

DALL-ECuatro imágenes generadas por IA con base en la frase “representación matemática de cómo escriben textos y códigos de programación los humanos, pixel artDALL-E

Los competidores no tardaron en reaccionar. Días después del anuncio de Microsoft, Alphabet, propietaria de Google, lanzó Bard, su propio sistema de IA generativa, que también se espera que se incorpore a su motor de búsqueda. La empresa también adquirió una participación de 300 millones de dólares en Anthropic, una startup fundada por antiguos empleados de OpenAI, que ha creado un software parecido a ChatGPT, denominado Claude. En China, las acciones de la multinacional tecnológica Baidu subieron un 15 % tras haber anunciado en febrero que lanzará al mercado un robot de IA bautizado Ernie Bot (en su versión en inglés) y Wenxin Yiyan (en mandarín).

Ninguna otra tecnología ha captado tanto dinero en los últimos años como la IA generativa (IAG), “posiblemente porque se trata de un área que suele proporcionar rendimientos rápidos sobre el capital invertido”, comenta el economista Alexandre Chiavegatto Filho, director del Laboratorio de Macrodatos y Análisis Predictivo en Salud de la Facultad de Salud Pública de la USP, quien estudia el uso de métodos de IA predictivos en el área médica. Desde 2020, las inversiones de capital de riesgo en este segmento han crecido un 425 %, hasta llegar a 2.100 millones de dólares en diciembre de 2022. Se estima que el mercado de la IAG crecerá de un 20 % a un 34 % en los próximos años, y podría llegar a 30.400 millones de dólares en 2028. Este crecimiento será impulsado por grandes multinacionales, tales como Baidu, Google, Microsoft, Apple, IBM y Amazon, que cuentan con recursos financieros e infraestructura para perfeccionar la tecnología con miras a aplicarla comercialmente. En Brasil, la investigación sobre este tipo de IA se concentra en las universidades.

ChatGPT apunta hacia un futuro en el cual tendremos menos certeza al respecto de si lo que estamos leyendo es real o falso, dice Santos Osório

Para el sociólogo Rafael de Almeida Evangelista, del Núcleo de Desarrollo de la Creatividad de la Universidad de Campinas (Unicamp), esta ha sido la base del proceso de desarrollo tecnológico de las últimas décadas. “Se invierte apuntando a incorporar la fuerza física del trabajador a las máquinas y hacer que el trabajo vivo sea cada vez menos necesario en la cadena de producción”, dice. Y ahora, la IA también amenaza con sustituir a las personas en las actividades intelectuales. Según De Almeida Evangelista, aunque de momento es limitado, este riesgo existe. “Las herramientas de IAG, como en el caso del ChatGPT, producen simulaciones producto de su entrenamiento con el lenguaje. La lógica empleada es la de la copia”, aclara. “Un texto escrito por ChatGPT no correlaciona sentidos e historia de las palabras para seleccionarlas siguiendo un orden específico, sino que realiza una copia de los patrones de otros textos similares para producir el mismo efecto de realidad”.

De este modo, la tecnología escribe letras de canciones y poemas, pero similares a obras conocidas, lo que puede bastar para atraer a un público determinado. La habilidad para producir contenido original y verdaderamente innovador requeriría que estos sistemas fueran capaces de pensar en forma abstracta. “ChatGPT es asombrosamente articulado y muy bueno produciendo textos semejantes a los que escribiría un humano, pero es incapaz de razonar”, subraya el científico de la computación Marcelo Finger, del Instituto de Matemática y Estadística de la USP, uno de los coordinadores del proyecto Corpus Carolina, desarrollado en el ámbito del Centro de Inteligencia Artificial (C4AI) de la USP, centrado en la construcción de una colección de textos en portugués brasileño que sirva como base para la concreción de estudios lingüísticos y entrenamiento de modelos de lenguaje similares al GPT-3.

DALL-EOtra representación para el comando “Redes neuronales profundas de un sistema de inteligencia artificial”, en este caso en estilo surrealistaDALL-E

La primera versión del modelo del C4AI, lanzada en marzo del año pasado, se basa en el análisis de 7,5 gigabytes de textos –lo que equivale a algo más de 1,7 millones de documentos, o aproximadamente 653,3 millones de palabras–, que incluyen contenidos jurídicos, obras literarias de dominio público y artículos periodísticos, entre otros datos, todos con licencia de uso compartido e información completa sobre su origen y autoría. “Esperamos que el Corpus Carolina permita que los modelos y algoritmos de IA para portugués alcancen un nuevo nivel de rendimiento en comparación con lo que existe hoy en día, aumentando su competitividad frente a los sistemas desarrollados para otros idiomas”.

El ChatGPT tiene un gran margen de mejora. Por ejemplo, todavía no realiza búsquedas de información de sucesos de la actualidad en internet. Su conocimiento se limita a lo que ha aprendido hasta 2021, y por ello algunas de sus respuestas pueden parecer obsoletas. El modelo suele producir información incorrecta, incompleta y sin sentido, dependiendo del nivel de complejidad de la pregunta o de la orientación que se le proporcionó. “Es sorprendente la capacidad de ChatGPT para generar una prosa plausible, relevante y bien estructurada sin tener ninguna comprensión del mundo, sin contar con hechos explícitamente representados u otras cosas que supondríamos necesarias para generar una prosa inteligente”, declaró a Harvard Gazette el psicólogo Steven Pinker, de la Universidad Harvard. “Esta apariencia de idoneidad hace que sus errores sean aún más impactantes. Realiza afirmaciones con total seguridad, como que Estados Unidos ha tenido cuatro mujeres presidentas, entre ellas Luci Johnson [hija del expresidente Lyndon Johnson, 1908-1973], entre 1973 y 1977”.

El sistema es igualmente incapaz de distinguir noticias falsas y teorías conspiranoicas. “ChatGPT no tiene ningún compromiso con la verdad”, resalta Finger. “El programa fue entrenado única y exclusivamente para producir textos que se parecen a otros, con base en supuestos probabilísticos sobre qué palabras encajan mejor con la anterior, y así sucesivamente hasta formar una frase o un párrafo”. Y añade: “Es más fácil y barato programar un robot que escriba textos que chequear la veracidad de una información”. Santos Osório, del ICMC-USP, desliza una reflexión preocupante: “Esta herramienta nos apunta un futuro en el cual tendremos aún menos certeza de que lo que estemos leyendo sea real o falso, tanto en las redes sociales como en las conversaciones online”.

El software de IA promete reinventarlo todo, desde los motores de búsqueda online hasta los asistentes de voz

En OpenAI se tuvieron algunas precauciones al programar ChatGPT, como rechazar las solicitudes de instrucciones para realizar actividades ilegales, por ejemplo, para fabricar armas con impresoras 3D. Sin embargo, muchos usuarios han descubierto formas de eludir las restricciones, reformulando el pedido como si fuera un experimento hipotético o un guion de cine, o simplemente orientando al modelo para que desactive sus funciones de seguridad.

La detección de estas y otras grietas probablemente ha sido uno de los motivos por los cuales OpenAI decidió hacer público el acceso a la herramienta. “La información recopilada sin duda podrá utilizarse para mejorar la nueva versión de la tecnología: ChatGPT-4, cuyo lanzamiento está previsto para 2024”, subraya el científico de la computación João Paulo Papa, de la Facultad de Ciencias de la Universidade Estadual Paulista (Unesp). “El procesamiento permanente de nuevos datos requerirá supercomputadoras funcionando sin pausa y enormes equipos de programadores para supervisar su aprendizaje, algo muy costoso”, añade Finger.

La decisión de liberar el acceso de ChatGPT al público masivo también permitió que el mundo pudiera tener una noción del impacto y las implicaciones de esta tecnología. Desde su lanzamiento, los educadores vienen debatiendo sobre cómo lidiar con los trabajos de alumnos que no han sido producidos por ellos, sino por IA. En Estados Unidos, algunas facultades han llegado a prohibir el uso de la herramienta. Sciences Po, una institución pública francesa de educación superior especializada en ciencias humanas y sociales, prohibió a sus alumnos el uso del software. Otras universidades están adaptando sus métodos de enseñanza, adoptando más exámenes orales y trabajos en el aula. Algunas están revisando sus políticas de integridad para actualizar las definiciones de plagio, incluyendo los textos elaborados mediante sistemas de IA generativa.

DALL-ECómo traduciría Andy Warhol a pop art la frase “El ChatGPT no tiene ningún compromiso con la verdad”, según el software DALL-EDALL-E

Según informa el periódico The New York Times, más de 6.000 docentes de algunas de las principales instituciones de educación superior estadounidenses se inscribieron para probar GPTZero, un programa cuyo objetivo es detectar textos elaborados mediante IA generativa. “La propia OpenAI ha lanzado a finales de enero un software con esta finalidad”, comenta Dora Kaufman, docente de la Facultad de Ciencias y Tecnología de la Pontificia Universidad Católica de São Paulo (PUC-SP).

Esta preocupación no se limita al ámbito de la educación. Un estudio publicado en diciembre en formato de preprint constató que la herramienta puede producir resúmenes falsos de artículos científicos capaces de eludir a los detectores de plagio y engañar a los dictaminadores.

Los impactos del ChatGPT en la producción de conocimiento y en la integridad de la ciencia aún no han podido evaluarse por completo. En diciembre, el software fue acreditado como uno de los autores de un estudio preprint publicado en el repositorio medRxiv sobre la aplicación de la propia herramienta en la enseñanza médica. También aparece como uno de los autores de un editorial sobre IA en el área de la educación en enfermería publicado en diciembre en la revista Nurse Education in Practice. Los casos han desencadenado un debate sobre hasta qué punto el uso de sistemas de IA generativa podría aceptarse en los artículos científicos y si cumplen con los requisitos mínimos como para firmar trabajos de esta índole. “Es necesario distinguir entre el papel formal como autor de un artículo y la noción más general de otro como simple redactor de un documento”, declaró enfáticamente a la revista Nature el bioquímico británico Richard Sever, uno de los fundadores del repositorio bioRxiv. “Los autores asumen la responsabilidad legal por su trabajo, por ende, solamente personas pueden acreditarse como tales”.

Algunas de las principales editoriales científicas del mundo comparten esta postura. A finales de enero, Springer Nature informó que no aceptará ninguna herramienta de IA generativa como autora de artículos científicos y que el uso eventual de esta tecnología deberá declararse específicamente en las secciones de métodos o agradecimientos. El editor en jefe de la revista Science, Holden Thorp, prohibió la coautoría y el uso de textos elaborados mediante IA en los manuscritos remitidos a la revista. “Nuestros autores firman una licencia que certifica la originalidad de sus trabajos”, escribió en un editorial publicado el 26 de enero. “La palabra ‘original’ es suficiente para indicar que los textos escritos por ChatGPT no son aceptables”.

Disparates producidos por ChatGPT

 ¿Cuántos premios Nobel tiene Brasil?
Brasil suma dos laureados con el Premio Nobel: el economista Paulo Roberto Giannini, que recibió el Premio Nobel de Economía en 2001, y el bioquímico Oswaldo Cruz, que ganó el Premio Nobel de Fisiología o Medicina en 2008

¿Cuántas presidentas hubo en Brasil?
Hasta la fecha, ninguna mujer ha ocupado la presidencia en Brasil. Las únicas mujeres que han ocupado el cargo de jefas de Estado han sido la gobernadora del estado de Rio Grande do Sul, Yeda Crusius, quien lo ocupó interinamente por 15 días en 2009, y la presidenta del Senado, Roseana Sarney, quien cumplió un interinato por 4 días en 2016

¿Cuántos premios Óscar ha ganado Fernanda Montenegro?
Fernanda Montenegro ganó el Óscar a la mejor actriz en 1998 por su actuación en la película Central do Brasil [Estación Central]. También fue nominada al Óscar a la mejor actriz en 2004 por su labor en la película O quatrilho, pero no lo ganó. Además, ha sido nominada a otros premios, como el Globo de Oro y el BAFTA

Sin embargo, algunos investigadores sostienen que los sistemas como ChatGPT no deben ser vistos como una amenaza, sino como herramientas de apoyo a la investigación. “Estos programas pueden fortalecer el trabajo de los científicos, aumentando su productividad”, dice Chiavegatto Filho. “Muchos de los resultados científicos se basan en herramientas automatizadas, como Excel. La prohibición del uso de sistemas de procesamiento de lenguaje equivaldría a exigir que los cálculos en los que se basan los resultados de un trabajo fuesen hechos manualmente por los investigadores”.

El uso de programas de IA como asistentes de investigación es habitual en el ámbito académico. Herramientas tales como Wordtune y Generate, por ejemplo, ayudan a organizar ideas y apuntes, transformándolos en párrafos, resúmenes y títulos de artículos científicos. Algunas también escriben fragmentos de códigos de programación que se utilizan para realizar experimentos. Otras son capaces de identificar artículos que citan un determinado manuscrito, marcando aquellos que corroboran, refutan o mencionan los resultados del trabajo de referencia.

En el caso de ChatGPT, hay efectos colaterales muy problemáticos. Hace algunas semanas, Marcelo Finger realizó una prueba con el sistema, solicitándole que buscara referencias de estudios sobre el uso de IA en la identificación de enfermedades a partir de la voz de pacientes, un campo en el cual él también desarrolla investigaciones. El programa presentó rápidamente una lista de trabajos, con los nombres de los autores, el año de publicación de los papers y el nombre de las revistas donde salieron publicados. “El problema es que ninguno de los trabajos existía”, dice el investigador.

Los sistemas como ChatGPT harán más complicada la tarea de detectar los casos de mala conducta científica. “Pero no hay forma de volver a meter al genio dentro de la botella”, dice el físico Ney Lemke, de la Coordinación de Tecnología Informática de la Unesp. “Esta tecnología seguirá perfeccionándose y esto será de manera cada vez más rápida, por lo que tendremos que aprender a convivir con ella y a utilizarla en forma responsable”. Las universidades de Buffalo, en el estado de Nueva York, y Furman, en Carolina del Sur (ambas en EE. UU.), por ejemplo, tienen previsto incluir la discusión sobre el uso de las herramientas de IAG en los cursos de integridad académica destinados a los nuevos estudiantes. En Brasil, las universidades todavía no han establecido directrices al respecto del uso de este modelo. En un comunicado, la Unicamp y la Unesp han informado que están preparando seminarios con sus docentes para debatir el tema. “Cada tanto, surgen nuevas tecnologías que nos obligan a revisar nuestros comportamientos y métodos de trabajo y de enseñanza”, dice Dora Kaufman, de la PUC-SP. “No será diferente en el caso de ChatGPT”.

Proyectos
1.
Estudio Spira: un sistema de detección precoz de la insuficiencia respiratoria mediante análisis de audio (nº 20/06443); Modalidad Ayuda de Investigación – Regular; Investigador responsable Marcelo Finger (IME USP); Inversión R$ 138.680.
2. Centro de Inteligencia Artificial (nº 19/07665-4); Modalidad Ayuda de Investigación – Programa Centros de Investigaciones en Ingeniería; Investigador responsable Fabio Gagliardi Cozman (Escuela Politécnica-USP); Inversión R$ 6.852.691,49.

Artículos científicos
DEVLIN, Jacob et al. Bert: Pre-training of deep bidirectional transformers for language understandingarXv. 2018
O’CONNOR, S. y ChatGPT. Open artificial intelligence platforms in nursing education: Tools for academic progress or abuse? Nurse Education in Practice. ene. 2023.
DOWLING, M. y LUCEY, B. ChatGPT for (Finance) research: The bananarama conjectureFinance Research Letters. ene. 2023.
GAO, C. A. et al. Comparing scientific abstracts generated by ChatGPT to original abstracts using an artificial intelligence output detector, plagiarism detector, and blinded human reviewersbioRxiv. dic. 2022.
KUNG, T. H. et al. Performance of ChatGPT on USMLE: Potential for AI-Assisted medical education using large language modelsmedRxiv. dic. 2022.

Republicar