
NOTA MIA: Lo peor es que la I.A. es mucho mejor en heurística y pensamiento original que MUCHÍSIMOS ACADÉMICOS MEME («grandes» intelectuales cool metropolitanos región-4), que conozco y que cada vez abundan más.
Nunca olvidaré al gran pope de las 150 publicaciones indexadas y cátedra prima, que en un evento universitario de I.A. terminó basando toda su «charla magistral» en un artículo completo de WIRED.
Tampoco olvido a todos esos «grandes intelectuales de la I.A.» que dan entrevistas rodeados de cientos de libros de fondo y terminan reduciendo todo a claves Hollywood: Skynet y Odisea del espacio 2001 (Jorge Lizama)
–
John Wiley and Sons, una importante editorial académica, está retirando actualmente más de 11.300 artículos científicos “revisados por pares” que habían publicado anteriormente. Estos artículos alguna vez fueron considerados ciencia de vanguardia y fueron citados en numerosas ocasiones por otros investigadores académicos.
Ahora se está revelando que estos artículos científicos, que a menudo dependían del dinero de los contribuyentes para financiar la investigación, son fraudulentos.
Además, la editorial de 217 años anunció el cierre de 19 revistas debido a un fraude de investigación a gran escala. Los artículos falsos a menudo contenían frases sin sentido generadas por IA para evitar la detección de plagio. Los ejemplos incluyen “cáncer de mama” denominado “peligro para los senos” y “dinámica de fluidos” escrito como “corriente pegajosa”. En un artículo, la “inteligencia artificial” fue llamada “conciencia falsificada”.
Estos problemas sistémicos de fraude han dañado significativamente la legitimidad de la investigación científica y la integridad de las revistas científicas. La industria editorial académica, valorada en casi 30 mil millones de dólares, enfrenta una crisis de credibilidad.

Los científicos están tomando atajos al utilizar la IA de forma fraudulenta
Los científicos de todo el mundo enfrentan una inmensa presión para publicar, ya que sus carreras a menudo se definen por el prestigio de sus publicaciones revisadas por pares. Los investigadores están clamando por fondos y tomando atajos mediante el uso de referencias irrelevantes e IA generativa. Por ejemplo, se supone que un artículo científico debe incluir citas que reconozcan la investigación original que sirvió de base para el artículo actual. Sin embargo, algunos artículos incluyen una lista de referencias irrelevantes para que el artículo parezca legítimo. En muchos casos, los investigadores dependen de la IA para generar estas citas, pero muchas de estas referencias no existen o no se aplican al artículo en cuestión. En un grupo de estudios retractados, se registraron correos electrónicos de contacto casi idénticos en una universidad de China, aunque pocos de los autores, si es que alguno, residían allí.
La IA generativa también se utiliza para disfrazar el plagio en nuevos artículos científicos. Muchos de estos artículos fraudulentos contienen pasajes que parecen técnicos y que fueron generados por IA. Estos pasajes se insertan a mitad del artículo para que el proceso de revisión por pares no pueda detectar las travesuras. Estas torturadas frases de IA reemplazan términos reales de la investigación original, de modo que las herramientas de detección no detectan el plagio.
Guillaume Cabanac, investigador en informática de la Universidad Toulouse III-Paul Sabatier en Francia, desarrolló una herramienta para identificar estos problemas. La herramienta se llama «Problematic Paper Screener». Analiza una gran cantidad de literatura publicada (alrededor de 130 millones de artículos) en busca de varias señales de alerta, incluidas “frases torturadas”. Cabanac y sus colegas descubrieron que los investigadores que intentan evadir los detectores de plagio a menudo reemplazan términos científicos clave con sinónimos generados por generadores automáticos de texto.
«La IA generativa les acaba de entregar un billete de lotería ganador», dijo Eggleton de IOP Publishing. “Pueden producir estos documentos de forma económica y a gran escala, mientras que los métodos de detección aún no se han puesto al día. Sólo puedo ver este desafío creciendo”.

Aproximadamente el 1% de todos los artículos científicos publicados son generados por computadoras.
De hecho, un investigador del University College de Londres descubrió recientemente que aproximadamente el uno por ciento de todos los artículos científicos publicados el año pasado, unos 60.000 artículos, fueron escritos por computadora. En algunos sectores, esto equivale a 1 de cada 5 artículos escritos por computadora.
Por ejemplo, un artículo reciente publicado en Surfaces and Interfaces en la revista Elsevier contenía la línea: «ciertamente, aquí hay una posible introducción para su tema». Los investigadores están utilizando chatbots de IA y modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) sin siquiera mirar lo que se transcribe para su publicación. Una edición rápida descubriría que esta frase está escrita por una computadora. A los investigadores, revisores y editores les faltan nombres inapropiados básicos generados por la IA; entonces, ¿qué más de estos trabajos de investigación es fabricado, plagiado o inventado por una computadora?
La consultora de integridad científica Elisabeth Bik dijo que los LLM están diseñados para generar texto, pero son incapaces de producir ideas objetivamente precisas. «El problema es que estas herramientas aún no son lo suficientemente buenas como para confiar», dice Bik, señalando un término llamado «alucinación». Bik dijo que los LLM «inventan cosas».
La confianza ciega en la IA está dañando la integridad de los artículos científicos. Se necesitan fuertes habilidades de razonamiento y discernimiento para navegar por la naturaleza poco confiable, malinterpretada y exagerada de los grandes modelos de lenguaje de IA .
–
FUENTE