Imprimir Republish

BUENAS PRÁCTICAS

Copia, pega y pasa vergüenza

Una lista reúne casi un centenar de artículos científicos que contienen frases copiadas de consultas a ChatGPT

Keystone / FPG / Hulton Archive / Getty Images

El sitio web Retraction Watch, que administra una base de datos con miles de artículos científicos invalidados por contener errores o incurrir en prácticas que configuran mala conducta científica, comenzó a recopilar una lista de papers publicados en decenas de revistas académicas que fueron redactados con la ayuda de programas de inteligencia artificial generativa, aun cuando sus autores no declararon de manera trasparente el uso de este tipo de software, como estipulan las revistas. La lista se actualiza cada vez que aparecen nuevos trabajos controvertidos y, a mediados de junio, había reunido alrededor de un centenar de trabajos. Los artículos llaman la atención por la desprolijidad manifiesta de sus autores, que dejaron en evidencia el uso de esa herramienta al limitarse a copiar y pegar respuestas de ChatGPT, y también por la negligencia de los revisores y editores, a quienes corresponde evaluar la calidad y la robustez de los manuscritos, sugerir mejoras y recomendar o rechazar su publicación.

Un caso que cobró repercusión en las redes sociales tuvo que ver con un artículo referente al rendimiento de las baterías de litio publicado en marzo por investigadores chinos en la revista Surfaces and Interfaces, de la editorial Elsevier. En la primera línea de la introducción aparece una frase típica del lenguaje estandarizado utilizado por ChatGPT en sus interacciones con los usuarios: “Sin duda, aquí tienes una posible introducción para ese tema” on los usuariosones o utilizado por vestigadores chinosos, sugerir y pegar respuestas de”. La anomalía llevó a que la totalidad del contenido se analizara en profundidad, lo que pronto derivó en el hallazgo de varios problemas, entre ellos, imágenes copiadas de otro artículo del mismo grupo. El trabajo fue objeto de retractación, es decir, fue cancelado.

El repertorio de frases hechas de ChatGPT es variado y también ha sido pasado por alto por otros autores. Un artículo de 2022 sobre la urbanización sostenible de las favelas incluyó en su desarrollo un argumento esgrimido por el programa de inteligencia artificial para no analizar la literatura publicada últimamente. “Como modelo de lenguaje de IA, no tengo acceso a internet en tiempo real ni la capacidad de navegar por estudios recientes”, rezaba el trabajo, firmado por un investigador tunecino y publicado en la revista International Journal of Advances Engineering and Civil Research, editada por un instituto de ingeniería de Egipto.

La misma revista publicó otro estudio elaborado con la ayuda de inteligencia artificial, firmado por un investigador argelino, sobre el uso de internet de las cosas en la ingeniería civil. En medio de su contenido se filtró la siguiente advertencia: “límite de conocimiento a septiembre de 2021”, que suele hacer ChatGPT para circunscribir en el tiempo su respuesta al usuario. Una variante de esta advertencia es esta frase: “la última vez que actualicé mi conocimiento, en 2023”, por ejemplo, que apareció en una revisión de la literatura sobre las aplicaciones del grafeno en la industria de petróleo y gas, publicada en 2023 por dos investigadores de Kuwait en la revista Geoenergy Science and Engineering, de la editorial Elsevier.

Casi dos tercios de los artículos publicados en la lista incurrieron en el mismo descuido: reprodujeron dos palabras en inglés que no tienen sentido en el contexto de los artículos ‒regenerate response‒ pero caracterizan a la inteligencia artificial generativa. Se trata de la leyenda presente en un botón clicable opcional de ChatGPT, que aparece en medio de las respuestas del programa. Esta expresión está presente, por ejemplo, en un artículo sobre la adhesión a la educación a distancia entre los estudiantes de las carreras de grado de informática, publicado en 2023 en la revista Journal of Researcher and Lecturer of Engineering por investigadores de Indonesia y Malasia. El caso no tuvo consecuencias. Ambas palabras desaparecieron del texto en el sitio web de la revista, en una maniobra que los medios editoriales denominan revisión furtiva, en la que el contenido se corrige de manera poco transparente, sin que se publique una fe de erratas.

Un episodio idéntico ocurrió en la revista PLOS ONE, pero en este caso el desenlace fue diferente. Un artículo sobre los efectos del modelo de enseñanza híbrida (presencial y en línea) en la motivación de los estudiantes pakistaníes también exhibía el mencionado “regenerate response” de ChatGPT y acabó siendo retractado, es decir, la revista canceló la publicación. El equipo de integridad de PLOS ONE llevó a cabo un análisis exhaustivo del trabajo firmado por investigadores pakistaníes vinculados a universidades chinas, en el que también se detectaron problemas en sus referencias bibliográficas: resultó imposible constatar la existencia o el contenido de 18 de ellas, supuestamente porque los programas de inteligencia artificial, en ocasiones, inventan referencias. Otro problema radica en que los documentos que acreditaban la aprobación ética de experimentos realizados en Pakistán por las autoridades de ese país eran de una fecha posterior a la selección de los participantes, una señal de violación de las normas. Los autores solamente reconocieron haber utilizado la plataforma Grammarly, que utiliza inteligencia artificial para la revisión del idioma.

Queda claro que la publicación de estos trabajos solo fue posible debido a la negligencia de los revisores y editores de las revistas a la hora de evaluar los manuscritos. Un caso reciente ha demostrado que incluso las revistas más comprometidas con la integridad científica están lidiando con este problema en forma dispar. El año pasado, la profesora de comunicación Jacqueline Ewart, de la Universidad Griffith, en Queensland, Australia, fue invitada por la revista Journal of Radio and Audio Media a evaluar un artículo sobre las radios comunitarias y recomendó que fuera rechazado, por temor a que hubiera sido redactado con ayuda de la inteligencia artificial. La investigadora no pudo comprobar la existencia de varias referencias bibliográficas y estaba segura de que al menos una era inventada, ya que la mencionaba como autora de un estudio que ella nunca escribió.

En abril, Ewart se sorprendió al enterarse de que el manuscrito había sido publicado en otra revista, World of Media, editada por la Universidad Estatal de Moscú, en Rusia. Según declaró en el sitio web Retraction Watch, los autores habían introducido una única modificación en comparación con la versión que ella revisó: cambiaron la palabra “progresión” por “desarrollo” en el título, a pesar de que se les había advertido sobre el problema con las referencias. Entonces Ewart puso en conocimiento del hecho a los editores de World of Media, quienes abrieron una investigación. Uno de los autores, Amit Verma, de la Universidad Manipal, de la India, se defendió diciendo que solamente había utilizado herramientas de IA para revisar el texto en inglés y que las referencias no verificables se habían obtenido de repositorios de instituciones de su país, cuya indexación es irregular, pero no dio explicaciones sobre el origen de la cita del artículo que Ewart nunca escribió. El paper se encuentra a disposición en el sitio web de la revista, donde se informa que el artículo está siendo sometido a una averiguación. Verma informó a Retraction Watch que la revista prometió volver a publicar una versión corregida.

Republicar