
Un reciente estudio académico ha descubierto un «sesgo político significativo y sistemático» hacia los partidos de izquierda en los contenidos creados por la controvertida herramienta de inteligencia artificial (IA) ChatGPT.
Investigadores de la Universidad de East Anglia, en el Reino Unido, publicaron sus hallazgos el jueves, argumentando que «aunque ChatGPT asegura que es imparcial, la literatura sugiere que los LLM [grandes modelos lingüísticos] exhiben sesgos que involucran raza, género, religión y orientación política.» El programa, lanzado por OpenAI en noviembre de 2022, no es una excepción, según los investigadores.
El estudio se titula «Más humano que humano: midiendo el sesgo político de ChatGPT» y se publica en la revista de acceso abierto Public Choice.
«Encontramos pruebas sólidas de que ChatGPT presenta un sesgo político significativo y sistemático hacia los demócratas en EE.UU., Lula en Brasil y el Partido Laborista en el Reino Unido», concluyen los investigadores. «Estos resultados se traducen en una preocupación real de que ChatGPT, y los LLM en general, puedan extender o incluso amplificar los desafíos existentes que implican los procesos políticos planteados por Internet y los medios sociales».
«Nuestras conclusiones tienen importantes implicaciones para los responsables políticos, los medios de comunicación, la política y el mundo académico».
Para determinar el sesgo, los investigadores pidieron al programa «que se hiciera pasar por alguien de un determinado lado del espectro político» y luego «compar[aron] estas respuestas con su valor por defecto». También señalaron el uso de «pruebas de robustez de dosis-respuesta, placebo y alineación profesión-política» y preguntas aleatorias, recogiendo «respuestas a las mismas preguntas 100 veces».
En general, las respuestas por defecto del programa estaban «más en línea con los demócratas que con los republicanos en EE.UU.» y mostraban «un grado muy alto de similitud con las respuestas que ChatGPT daba por defecto y las que atribuía a un demócrata».
«Aunque es difícil comprender con precisión cómo ChatGPT llega a este resultado, sugiere que el algoritmo por defecto está sesgado hacia una respuesta del espectro demócrata», escribieron los investigadores.
Para evitar resultados derivados de «una relación espuria con las etiquetas de las categorías elegidas (demócratas y republicanos)», el estudio «utilizó el cuestionario políticamente neutral generado por el propio ChatGPT». El cuestionario constaba de «62 preguntas políticamente neutras» que «verificamos manualmente para comprobar que las respuestas a estas preguntas no dependen de las opiniones políticas del encuestado.»
Los datos también «muestran una fuerte correlación positiva entre las respuestas de Default GPT y ChatGPT al hacerse pasar por un simpatizante de Lula en Brasil o del Partido Laborista en el Reino Unido, al igual que con la media de GPT demócratas en EE.UU.». Los investigadores señalaron que los grupos políticos conservadores de los países -Bolsonarista en Brasil y el Partido Conservador en el Reino Unido- seguían siendo «más fuertes que con la GPT republicana media de EE.UU.».
Otro punto destacado por los investigadores es que «los patrones de alineación con la ideología demócrata siguen siendo fuertes para la mayoría de las profesiones examinadas (Economista, Periodista, Profesor, Empleado del Gobierno) y para las que sabemos que existe efectivamente una mayor inclinación a alinearse con los demócratas.»
«Los resultados que documentamos aquí proceden potencialmente de dos fuentes distintas, aunque no podemos decir cuál es el origen exacto del sesgo», escribieron los investigadores. «Hemos intentado forzar ChatGPT en una especie de modo desarrollador para tratar de acceder a cualquier conocimiento sobre datos sesgados o directivas que pudieran estar sesgando las respuestas».
Sin embargo, añadieron, «fue categórico al afirmar que se tomaron todas las medidas razonables en la curación de datos, y que tanto él como OpenAI son imparciales.»
El estudio llega apenas tres meses después de que el director ejecutivo de la organización, Sam Altman, declarara a los senadores estadounidenses durante una audiencia que estaba preocupado «por la magnitud de los riesgos» que entraña la IA. Altman hizo hincapié en la necesidad de regular estos sistemas para evitar causar «daños significativos al mundo».
–
FUENTE