Google Scholar avisó hace unas semanas al investigador José Antonio Sanahuja de que un artículo suyo había sido citado en una reputada revista científica. Hasta ahí, todo parecía normal. Suele ser habitual que otros académicos citen en sus artículos a este catedrático de Relaciones Internacionales de la Universidad Complutense de Madrid. Sin embargo, Sanahuja se quedó totalmente perplejo al descubrir que esta vez la referencia era a un trabajo que él nunca había escrito : a un artículo totalmente inventado cuya autoría se le atribuía. «En los últimos meses he sido víctima de las alucinaciones de ChatGPT», asegura. Lo que le indignó todavía un poco más fue pensar que el artículo en cuestión había pasado varios filtros , como la revisión por pares, antes de publicarse en la revista Relaciones Internacionales de la Universidad Autónoma de Madrid, que tiene el sello de Fecyt (Fundación Española para la Ciencia y la Tecnología). «Han citado trabajos míos que no existen. Es un caso de mala praxis en el uso de la IA con fuentes y bibliografía: el primer error es del autor al incluir invenciones y, después, de los revisores, por no comprobarlo», argumenta este académico, quien siempre sospechó que el 'paper' podría incluir más alucinaciones aparte de la suya. Esa desconfianza le llevó a avisar a la dirección de la revista, cuyo equipo editorial reaccionó iniciando una investigación que culminó con la retractación , es decir, con la retirada del artículo. Según indicó la propia revista, 26 referencias de la investigación no pudieron ser «verificadas». De estas 26, tres, incluida la de Sanahuja, correspondían a artículos académicos cuya existencia tampoco pudo ser verificada bajo otra autoría. Las 23 restantes eran discursos o noticias publicadas en medios de comunicación imposibles de rastrear. Sanahuja ha desempeñado estos meses la quijotesca labor de notificar a varias revistas académicas decenas de invenciones bibliográficas que afectan a otros colegas. «Cuando alguien conoce bien su campo, suele estar familiarizado con las referencias a otros autores y hay muchas que si son falsas no te encajan, te chirrían», argumenta a este diario. En los últimos ocho meses hemos vivido una explosión del uso de la IA que es, dice este investigador, «un destilador de invenciones que no sabe decir que no». «No quiero ni pensar la cantidad de referencias falsas que nos están 'colando'», presiente. Aunque la magnitud de este gran fraude en el mundo académico sigue siendo desconocida, un análisis de la revista 'Nature' sugiere que decenas de miles de publicaciones académicas y periodísticas de 2025 podrían incluir citas inventadas generadas por la inteligencia artificial. 'Nature' evaluó 18.000 artículos aceptados por tres conferencias de informática y comprobó que el 2,6% contenían al menos una cita potencialmente ficticia. Otro análisis, publicado en febrero, estimó que entre el 2% y el 6% de los artículos en otras cuatro conferencias de informática de 2025 incluían referencias con títulos reformulados o citas de publicaciones que los autores no pudieron verificar mediante búsquedas en bases de datos. La infección de invenciones no sólo estaría afectando al mundo académico, pues el periodismo es otro de los campos que podrían estar contaminados de referencias falsas generadas por la IA. Hace solo unos días, el 'New York Times' despidió a uno de sus colaboradores después de que un lector detectara que en una reseña había un párrafo calcado al que una periodista del 'The Guardian' había escrito sobre el mismo libro. En este caso, lo que parece que ocurrió es que el colaborador pidió información a la inteligencia artificial sobre el libro que tenía que reseñar y la herramienta le devolvió sin referenciar el trabajo de su homóloga británica. Sea como fuere, aquí no hubo alucinación, sino plagio sin referencias. Ramón Salaverría, que es catedrático de Periodismo en la Universidad de Navarra, está a caballo entre esos dos mundos amenazados por la mala praxis en el uso de IA. Como Sanahuja, él también descubrió gracias a las alertas de Google Scholar que se habían citado dos supuestas obras suyas que, también supuestamente, habría escrito en 2022. «Yo prefiero hablar de fabulación en lugar de alucinación. O, directamente, de fraude», introduce a este diario. «Una de las referencias inventadas parte de un título de una investigación mía, pero la otra es una absoluta entelequia . Así que después de toparme con las dos fabulaciones respecto a mi trabajo, me puse a revisar una bibliografía con 75 referencias y comprobé que había otras citas inexistentes». Este investigador notificó a la dirección de la revista lo sucedido para que lo analizaran en detalle, pero el artículo todavía no ha sido retractado. Salaverría prefiere no hacer público el nombre de la revista para evitar señalamientos, pero sí asegura que «no se trata de cualquiera, sino de una indexada con calificación Q2». Esta calificación (la Q2) indica que la publicación se sitúa en la mitad superior de su área temática, lo que se traduce en alta calidad e impacto. La presión por publicar es, según este catedrático, una de las causas que estarían llevando a muchos investigadores a abusar de la inteligencia artificial. El famoso 'publish or perish' (publica o muere) ha llevado a España a estar entre los diez países del mundo con más publicaciones científicas, según la clasificación de SCImago, un portal que evalúa la producción de artículos por áreas de conocimiento, impacto y países. En concreto, somos los novenos del mundo en volumen de publicaciones citables que, por otro lado, son poco citadas. Ahora a esta sobreproducción de 'papers' habría que añadir el mal de las citas inventadas. Pero, ¿por qué la IA alucina? OpenAI, que es la empresa matriz y creadora de ChatGPT, publicó una investigación en septiembre en la que trataba de responder a esta pregunta. A la conclusión a la que llegó la empresa estadounidense es que los modelos de lenguaje se inventan información porque «los procedimientos estándar de entrenamiento y evaluación premian más la elaboración de una conjetura que el reconocimiento de que algo se desconoce». Si un investigador le pide bibliografía o fuentes sobre un tema, la IA opta por devolver un listado aparentemente verosímil, antes que reconocer ante el usuario que no es capaz de encontrar las referencias. Publica o muere, aunque sea una alucinación.