Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
No Result
View All Result

La IA corrompe la investigación académica con citas de estudios inexistentes

byEmre Çıtak
30 diciembre 2025
in Research
Home Research
Share on FacebookShare on Twitter

Las instituciones académicas han registrado una proliferación de citas generadas por IA de artículos inexistentes dentro de publicaciones académicas, lo que socava la legitimidad de la investigación, según Andrew Heiss, profesor asistente de la Escuela de Estudios Políticos Andrew Young de la Universidad Estatal de Georgia. Heiss descubrió que los grandes modelos lingüísticos (LLM) generan citas inventadas, que posteriormente aparecen en los estudios profesionales. Al rastrear fuentes falsas en Google Scholar, Heiss observó docenas de artículos publicados que citaban variaciones de estos estudios y revistas inexistentes. A diferencia de los artículos generados por IA, que a menudo se retractan rápidamente, estos números alucinados de revistas se citan en otras publicaciones. papeleslegitimando efectivamente información errónea. Este proceso lleva a estudiantes y académicos a aceptar estas «fuentes» como confiables sin verificar su autenticidad, lo que refuerza la ilusión de credibilidad a través de citas repetidas. Los bibliotecarios de investigación informan que dedican hasta el 15% de sus horas de trabajo respondiendo a solicitudes de registros inexistentes generadas por LLM como ChatGPT o Google Gemini. Heiss anotado que las citas generadas por IA a menudo parecen convincentes, con nombres de académicos vivos y títulos que se asemejan a la literatura existente. En algunos casos, las citas estaban vinculadas a autores reales, pero incluían títulos de artículos y revistas inventados que imitaban trabajos anteriores de los autores o publicaciones periódicas reales. Académicos, incluida la psicóloga Iris van Rooij, han advertido que la aparición de una «baja» de IA en los recursos académicos amenaza lo que ella denominó «la destrucción del conocimiento». En julio, van Rooij y otros firmaron un carta abierta abogar por que las universidades salvaguarden la educación superior, el pensamiento crítico, la experiencia, la libertad académica y la integridad científica, e instar a un análisis riguroso del papel de la IA en la educación. El ingeniero de software Anthony Moser predijo en 2023 que los chatbots podrían llevar a los instructores a crear programas de estudios con lecturas inexistentes y a los estudiantes a confiar en la inteligencia artificial para resumir o escribir ensayos, un escenario que ahora afirma que se ha materializado. Moser sostiene que describir los resultados del LLM como «alucinaciones» tergiversa su función, afirmando que los modelos predictivos «siempre alucinan» y son «estructuralmente indiferentes a la verdad». Dijo que los LLM contaminan el ecosistema de información en sentido ascendente, con citas inexistentes que se infiltran en la investigación y circulan a través de artículos posteriores, comparándolas con sustancias químicas duraderas que son difíciles de rastrear o filtrar. Moser atribuye el problema a «elecciones deliberadas», afirmando que las objeciones fueron «ignoradas o anuladas». Reconoce que «la mala investigación no es nueva», pero afirma que los LLM han amplificado la presión preexistente para publicar y producir, lo que llevó a artículos con datos cuestionables. Craig Callender, profesor de filosofía en la Universidad de California en San Diego y presidente de la Asociación de Filosofía de la Ciencia, está de acuerdo y observa que «la apariencia de legitimidad ante revistas inexistentes es como el producto final lógico de las tendencias existentes». Callender señala la existencia de revistas que aceptan artículos espurios con fines de lucro o investigaciones sesgadas, creando un «pantano» creciente en las publicaciones científicas. Sugiere que la IA exacerba este problema, ya que las búsquedas en Google asistidas por IA potencialmente refuerzan la existencia percibida de estas revistas fabricadas y propagan desinformación. Los investigadores informan de un desánimo generalizado a medida que el contenido falso se consagra en bases de datos de investigación públicas, lo que dificulta rastrear los orígenes de las afirmaciones.


Crédito de imagen destacada

Tags: académicoAIInvestigación

Related Posts

Los modelos estándar de IA fallan en matemáticas simples sin capacitación especializada

Los modelos estándar de IA fallan en matemáticas simples sin capacitación especializada

30 diciembre 2025
Las baterías de iones de sodio se acercan más a la carga rápida a medida que los investigadores resuelven los cuellos de botella de los iones

Las baterías de iones de sodio se acercan más a la carga rápida a medida que los investigadores resuelven los cuellos de botella de los iones

30 diciembre 2025
La IA corrompe la investigación académica con citas de estudios inexistentes

La IA corrompe la investigación académica con citas de estudios inexistentes

30 diciembre 2025
Los científicos descubren más de 17.000 nuevas especies

Los científicos descubren más de 17.000 nuevas especies

26 diciembre 2025
GPT-5.2 supera la base de referencia de doctorado de expertos con una puntuación científica del 92 %

GPT-5.2 supera la base de referencia de doctorado de expertos con una puntuación científica del 92 %

24 diciembre 2025
Por qué DIG AI es la IA maliciosa más peligrosa de 2025

Por qué DIG AI es la IA maliciosa más peligrosa de 2025

23 diciembre 2025

Recent Posts

  • Por qué el acuerdo con Groq de Nvidia es tan clave para el futuro de la IA
  • Los altos costos de DDR5 empujan a ASUS a aumentar la producción de placas DDR4
  • El juego del anillo de zoom del Xiaomi 17 Ultra es normal
  • Cliente de Tesla busca un nuevo juicio tras restricciones de gasto
  • HP filtra monitores de juegos OMEN OLED antes de CES 2026

Recent Comments

No hay comentarios que mostrar.
Dataconomy ES

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.