Las instituciones académicas han registrado una proliferación de citas generadas por IA de artículos inexistentes dentro de publicaciones académicas, lo que socava la legitimidad de la investigación, según Andrew Heiss, profesor asistente de la Escuela de Estudios Políticos Andrew Young de la Universidad Estatal de Georgia. Heiss descubrió que los grandes modelos lingüísticos (LLM) generan citas inventadas, que posteriormente aparecen en los estudios profesionales. Al rastrear fuentes falsas en Google Scholar, Heiss observó docenas de artículos publicados que citaban variaciones de estos estudios y revistas inexistentes. A diferencia de los artículos generados por IA, que a menudo se retractan rápidamente, estos números alucinados de revistas se citan en otras publicaciones. papeleslegitimando efectivamente información errónea. Este proceso lleva a estudiantes y académicos a aceptar estas «fuentes» como confiables sin verificar su autenticidad, lo que refuerza la ilusión de credibilidad a través de citas repetidas. Los bibliotecarios de investigación informan que dedican hasta el 15% de sus horas de trabajo respondiendo a solicitudes de registros inexistentes generadas por LLM como ChatGPT o Google Gemini. Heiss anotado que las citas generadas por IA a menudo parecen convincentes, con nombres de académicos vivos y títulos que se asemejan a la literatura existente. En algunos casos, las citas estaban vinculadas a autores reales, pero incluían títulos de artículos y revistas inventados que imitaban trabajos anteriores de los autores o publicaciones periódicas reales. Académicos, incluida la psicóloga Iris van Rooij, han advertido que la aparición de una «baja» de IA en los recursos académicos amenaza lo que ella denominó «la destrucción del conocimiento». En julio, van Rooij y otros firmaron un carta abierta abogar por que las universidades salvaguarden la educación superior, el pensamiento crítico, la experiencia, la libertad académica y la integridad científica, e instar a un análisis riguroso del papel de la IA en la educación. El ingeniero de software Anthony Moser predijo en 2023 que los chatbots podrían llevar a los instructores a crear programas de estudios con lecturas inexistentes y a los estudiantes a confiar en la inteligencia artificial para resumir o escribir ensayos, un escenario que ahora afirma que se ha materializado. Moser sostiene que describir los resultados del LLM como «alucinaciones» tergiversa su función, afirmando que los modelos predictivos «siempre alucinan» y son «estructuralmente indiferentes a la verdad». Dijo que los LLM contaminan el ecosistema de información en sentido ascendente, con citas inexistentes que se infiltran en la investigación y circulan a través de artículos posteriores, comparándolas con sustancias químicas duraderas que son difíciles de rastrear o filtrar. Moser atribuye el problema a «elecciones deliberadas», afirmando que las objeciones fueron «ignoradas o anuladas». Reconoce que «la mala investigación no es nueva», pero afirma que los LLM han amplificado la presión preexistente para publicar y producir, lo que llevó a artículos con datos cuestionables. Craig Callender, profesor de filosofía en la Universidad de California en San Diego y presidente de la Asociación de Filosofía de la Ciencia, está de acuerdo y observa que «la apariencia de legitimidad ante revistas inexistentes es como el producto final lógico de las tendencias existentes». Callender señala la existencia de revistas que aceptan artículos espurios con fines de lucro o investigaciones sesgadas, creando un «pantano» creciente en las publicaciones científicas. Sugiere que la IA exacerba este problema, ya que las búsquedas en Google asistidas por IA potencialmente refuerzan la existencia percibida de estas revistas fabricadas y propagan desinformación. Los investigadores informan de un desánimo generalizado a medida que el contenido falso se consagra en bases de datos de investigación públicas, lo que dificulta rastrear los orígenes de las afirmaciones.





