Artículos relacionados: ¿Fraude en la ciencia o la ciencia del fraude?
«Por supuesto, aquí tienes una posible introducción para este tema.» Así encabezaba la introducción de un artículo publicado en Surfaces and Interfaces, un journal del prestigioso grupo Elsevier de ciencia y publicación. Esta frase sería un «copia-pega» literal tras prompt a una IA como ChatGPT para redactar una sección para un artículo de investigación.
El uso de IA generativa ha revolucionado amplios sectores de la comunicación digital. En la escuela, los métodos de evaluación basados en redacciones se han quedado obsoletos de la noche a la mañana. Esto no es una novedad, porque con apps como FastMath o PhotoMath, los deberes de matemáticas pasan a ser un mero «haz click y resuelve». Los procesos de evaluación se vacían de contenido y la educación deja de poder orientarse hacia los resultados. Lo cual no es del todo malo, pues en realidad, son los procesos lo que un docente debe estar evaluando cuando corrige un ejercicio. Pero cada maestrillo tiene su librillo. Más allá de los efectos en la educación de los infantes, aunque no sea baladí, estas herramientas se han colado también en los sistemas de producción científica y están produciendo una oleada de indignaciones.
No es para menos. La ciencia goza de un aura de rigor y autoridad porque en su práctica y en su comunicación se sirve de herramientas para controlar qué se concluye, por qué, y en qué medida es trasladable. Dejando de lado la praxis científica, que estoy seguro de que a todos les sonará el afamado «método científico», vamos a centrarnos en el proceso de comunicación científica. La unidad básica de comunicación en ciencia es el artículo o «paper». En éste se debe plasmar de forma precisa la hipótesis de investigación, los experimentos y las reflexiones sobre los resultados para que todos entiendan el nuevo descubrimiento. Estos «papers», una vez redactados, son examinados de forma meticulosa por otros compañeros de profesión en un proceso de revisión por pares, o «peer review».
El objetivo es que, de forma anónima, el contenido de los artículos sea evaluado por otros científicos y sólo tras su aprobación se publique en la revista en cuestión. En un mundo ideal, los revisores no tienen sesgos, ni conflictos de intereses, y las revistas no publican por mero interés económico sino por el amor al descubrimiento. En la práctica, como imaginamos, esto no es ciertamente así.
¿Y dónde está el problema con la IA? Precisamente en que se está vulnerando el «peer review», infiltrando, en el mejor de los casos, textos redactados con ChatGPT y similares, y en el peor, auténticas fabricaciones sin rigor. Aunque no lo creamos, la IA deja huella en su forma de redactar. Esto se ha podido comprobar analizando las palabras presentes en los artículos y comparándolas con su uso habitual en la población. Así, aparecen en un número desproporcionado palabras como «innovador», «meticuloso», «intrincado», «notable» y «versátil». Todas estas son manías y vicios de la IA que las personas no escribimos con tanta frecuencia. Pero en un ámbito como es la ciencia, donde se emplean palabras que pocos o ningún grupo emplea más allá del nicho particular de investigación, el uso de palabras poco habituales no es el problema.
Este sería, por contra, que los propios investigadores se están quedando sin base de conocimiento por depender de ChatGPT. La redacción de un artículo conlleva un tedioso proceso de lectura, análisis e interiorización de conceptos elaborados por otros artículos, los cuales se citan sólo si son pertinentes a la investigación y deben ser comprendidos. Este nuevo «Rincón del vago» para científicos se encargaría de redactar y agregar conceptos sin que el investigador haya comprendido nada, lo cual es especialmente peligroso en estudios de doctorado, donde el investigador está aún formándose.
Casos más escandalosos incluyen la publicación de auténticos disparates, como la famosa imagen de un ratón con un pene gigante acompañada de etiquetas de contenido basura y palabras inventadas, que apareció en Frontiers in Cell and Development Biology. Este y otros casos han llevado a grupos editoriales como Wiley o Hindawi a cerrar hasta 19 journals por considerarse «fábricas de artículos» potencialmente fraudulentos.
Yes, this is real, and it was peer reviewed science:
"Leading Scientific Journal Humiliated After Publishing Fake AI-Generated Paper About Rat With Giant Penis":https://t.co/GV9xFZomtO pic.twitter.com/uitFdYgJbB
— Richard Geldreich (@richgel999) February 25, 2024
Y es que un 30% de los científicos reconoce usar la IA a la hora de comunicar ciencia. Entre las causas podemos destacar dos: dificultades con el idioma y falta de tiempo. El idioma de las ciencias es el inglés, y por suerte o por desgracia las revistas más prestigiosas publican exclusivamente en este idioma, por lo que los investigadores de todo el mundo deben dominar la lengua bárbara. Aunque lo realmente preocupante es que los científicos están desbordados: en ciencia, el lema por excelencia es «publish or perish», publica o muere. La publicación científica es un mercado voraz en el que no estar a la altura en volumen de publicaciones puede suponer perder financiación y una desventaja técnica para universidades enteras. Esto es un problema en sí mismo, pues en ciencia la cantidad no debe primar sobre la calidad. Pero esto es harina de otro costal.
Vean ustedes que el problema del fraude no es por la IA. Nunca lo es, en realidad. Es más bien por el usuario. Si me preguntaran ustedes si ChatGPT tiene cabida en el proceso de producción científica, seguramente les diría «IA, de entrada, no». Y esto tiene sus motivos. Primero, por lo que ya hemos mencionado: el investigador debe entender lo que escribe, por qué lo escribe, y si aporta al estudio. Segundo, porque existen herramientas de traducción automática no creativas, por lo que la barrera del idioma se podría superar sin recurrir a ChatGPT.
Además, muchos journal disponen de un sistema de revisión lingüística dedicado para aquellos grupos cuya lengua materna no sea el inglés. En tercer lugar, este escándalo de las IA revela un problema de base aún más preocupante, y es que el «peer review», la principal herramienta de control que tiene la ciencia para comunicar certeza, no ha estado a la altura de la situación. En otra ocasión hablaremos de esto, porque da para rato.
En definitiva, a los males de la ciencia, que no son pocos, se une una IA que ya es omnipresente para acelerar otros muchos procesos de debacle de la institución científica. Grupos como Nature ya han señalado ChatGPT como «IA non grata» y están desarrollando herramientas de IA propias. ¿Qué opina el lector?