Goolag despidió a esta mujer por avisar de los peligros de la IA: «Nos están robando a todos»

Hace apenas dos años y medio, el nombre de Timnit Gebru dio la vuelta al mundo.

Esta ingeniera de Stanford de origen etíope, especializada en inteligencia artificial, trabajaba por aquel entonces en Google. Lideraba su unidad de ética y acababa de escribir un paper que generó una de las mayores crisis internas de la historia reciente de la compañía. El informe se titulaba «El peligro de los loros estocásticos» y, visto en perspectiva, fue premonitorio. Hablaba de los riesgos de los grandes modelos de lenguaje (LLM, en sus siglas en inglés), es decir, de lo que hoy todos ya conocemos como ChatGPT. Era un rodillo. Avisaba de los problemas de sesgos, financieros y medioambientales de este tipo de tecnología y exigía una mayor regulación. A Google no le gustó nada, tan poco de hecho que la despidió al instante. «Fue una etapa muy difícil, creo que no podría volver a pasar por algo así», recuerda desde su casa en San Francisco en una entrevista con El Confidencial.

Gebru (39 años) se quedó sin empleo en las Navidades de 2020 y, desde entonces, se ha convertido en una de las voces más críticas de la actual fiebre por la inteligencia artificial. Es casi imposible encontrar en este terreno a alguien que mezcle como ella conocimiento técnico, perspectiva social, de género y racial y, además, sea independiente de la influencia de las grandes tecnológicas. Gebru llama a Musk «sexista» y acusa a Google, Microsoft, OpenAI o Facebook de estar llevando a cabo «un robo de datos masivo». Sus rivales, como el investigador Pedro Domingos o el propio Musk, la tachan de «activista loca» y de ejemplo de cómo el «virus woke» ha infectado el mundo tecnológico. Es el manual de la élite de Silicon Valley en acción: desacreditar a quienes avisan de los monopolios que vienen.

Timnit, considerada por la revista Time una de las personas más influyentes del planeta, o por la revista Nature como una de las 10 personas que más ha influenciado la ciencia en 2021, dice buscar tan solo abrirnos los ojos ante algunos de los peligros de la IA. Hacernos más críticos. Desenmascarar la hipocresía de OpenAI, Google o Microsoft. «Nos están vendiendo un futuro utópico en el que, básicamente, no hay humanos. Te despiertas y hablas con un chatbot. Obtienes tu música de un chatbot, tus libros y tu arte de un chatbot… Pero, ¿por qué? No acabo de entender por qué queremos este tipo de mundo. El problema es que ellos tienen tanto dinero y hacen tanta propaganda que al final te hacen desear algo así».

PREGUNTA. Han pasado poco más de dos años desde que Google la despidiera. ¿Cómo recuerda aquella etapa?

RESPUESTA. Fue muy tenso, perdí mucho peso, estaba muy estresada y, a la vez, no tenía tiempo para procesar nada, tenía que actuar rápido en cada momento. Estaba todo el día entre abogados, medios de comunicación, mi equipo… Ahora la situación es muy triste. Hace dos años y medio se sucedieron muchas cosas a la vez, las protestas del Black Lives Matter, había más presión sobre las tecnológicas para comportarse éticamente… Ahora, ha habido un completo retroceso al movimiento del Black Lives Matter. Y las compañías estás despidiendo a todos sus equipos de ética de inteligencia artificial. Eso te demuestra cuáles son sus prioridades. Si a mí me hubieran despedido ahora, creo que habría pasado desapercibida.

P. Dos años no es nada, pero de repente medio planeta estamos usando ChatGPT y debatiendo qué empleos van a desaparecer. ¿Le ha sorprendido la rápida explosión de la IA en tan poco tiempo?

R. Oh, dios mío… (risas). Cuando escribimos sobre los peligros de los grandes modelos de lenguaje, mucha gente no sabía ni lo que eran. En ese momento nos preocupaba estar escribiendo sobre algo muy especializado. Y mira ahora. Honestamente, nunca pensé que fuéramos a llegar a este punto en el que, literalmente, todo el mundo está hablando y escribiendo sobre esto. Estoy horrorizada y exhausta por este hype. Escucho a gente, incluso ingenieros e investigadores, decir cosas como que “una gran parte del PIB va a depender de la IA”, “todo el mundo va a tener que desarrollar su tecnología sobre GPT-4” y todas estas cosas. Hay muchas startups que ofrecen soluciones que funcionan mejor y no pasan por este modelo centralizado. Y, luego, el tipo de afirmaciones que hacen sin ningún tipo de base ni prueba, como que los abogados serán reemplazados por un chat, que los artistas desaparecerán…

P. ¿No cree que GPT-4 y la IA sea la revolución que nos están vendiendo?

R. Tiene una parte revolucionaria, y creo que lo puede ser, pero no en la forma en la que ellos hablan. Para empezar, se está produciendo un robo masivo de datos. He hablado con muchos artistas y es descorazonador oír lo que cuentan. Imagina que te pasas toda la vida intentando mejorar tus habilidades, y que compartes todo eso en internet, hablas sobre todo el proceso por el cual llegas a perfeccionar tu técnica. O un programador, hablando sobre cómo usa Stack Overflow y colgando vídeos y artículos sobre ello. Eso es lo que se supone que era internet, un lugar para compartir conocimiento y aprender de otros. Mucha gente lleva años haciendo esto y de repente, llega una compañía con miles de millones, coge todo eso gratis, y te lo vende diciendo que eso va a hacer tu vida mucho más fácil. En ese sentido, sí, creo que va a haber una revolución brutal porque nos están robando a todos de forma masiva.

La centralización de poder que eso está produciendo no creo que sea el camino a seguir. ¿Cómo vas a reemplazar a un abogado? ¿O a un médico? ¿O a un artista? El arte no es eso, no es reemplazar a una persona con un generador de imágenes. El arte va de la expresión humana. Desde luego está ocurriendo algo muy grande, pero gira en torno a la centralización del poder, la explotación de gente para entrenar y afinar estos sistemas y el robo masivo de datos. Mi colega Emily M. Bender lo llama la gran fuga de petróleo del ecosistema de información. Yo estoy en shock de ver cómo unos pocos de individuos ricos y altamente conectados han sido capaces de llevar a todo el mundo a este punto.

«Google, OpenAI o Microsoft están tratando de conseguir todo el dinero posible robando, no contándonos qué hay detrás de sus sistemas y explotando a trabajadores»

P. En su paper de 2020, el que le costó el despido, identificaba algunos de los peligros de la IA que ahora hemos empezado a ver con ChatGPT. ¿Cuál es el que más le preocupa?

R. La centralización de poder. Amazon quiere ser el único sitio donde lo compres todo, y ahora OpenAI quiere ser el único sitio donde puedes obtener cualquier información. Microsoft va por el mismo camino. Pero no es el único. Estamos viendo muchísimos problemas con los resultados que producen los modelos de IA previos que a su vez se están usando para entrenar las siguientes versiones. Esto es lo más básico en machine learning: no puedes entrenar versiones sucesivas de un modelo basándote en datos anteriores. La misma gente que habla de revolución no está haciendo lo más básico, que es no contaminar tus datos.

P. Algunas personas se están enamorando de un chatbot. Está ocurriendo.

R. Sí, y nosotros avisamos de ello. Escribimos que imitar el comportamiento humano es una línea roja en el desarrollo de la IA, estás engañando a la gente a propósito para que piensen que están hablando con otro humano. Muchos de esos modelos de lenguaje, por definición, están entrenados y concebidos para sonar como una persona. Avisamos de lo que eso supondría, y ahora vemos el resultado. El otro día vi un nuevo servicio en el que Andreessen Horowitz ha invertido miles de millones de dólares que te ofrece personajes de IA para hacer amigos, y son todo chicas. Y ya sabes por dónde va la cosa, en el fondo mucha gente entra ahí con motivaciones sexuales. Y de nuevo ves la visión que tiene esta gente del futuro, una sociedad en la que no hay apenas interacción humana y hablas con un software. Otra persona en Bélgica se suicidó hace poco tras pasarse semanas hablando con un chatbot. Es distópico.

 

 

P. ¿Por qué es malo tener sentimientos hacia una IA? No quita de querer a una persona.

R. Pero, ¿por qué vas a querer hacer eso? ¿Cuál es el objetivo real de ofrecer esto? ¿Para gente que tiene problemas de socialización? Y, ¿cómo ayuda a eso a que los seres humanos vivamos mejor en sociedad? ¿En qué ayuda eso a otros grandes objetivos como detener una guerra o parar el cambio climático? OpenAI dice que su objetivo es trabajar en conseguir inteligencia artificial general [AGI, en sus siglas en inglés] que nos lleve a todos a una especie de utopía. No veo la conexión entre lo que están ofreciendo y ese supuesto objetivo de mejorar el mundo.

P. Google, Microsoft y OpenAI se han enzarzado en una carrera loca para liderar en IA, lanzando programas sin acabar o sin los filtros de seguridad y privacidad necesarios. ¿Están siendo temerarios?

R. Están siendo mucho más que temerarios. Y lo que no entiendo es cómo se les está permitiendo hacer esto. Hace unos días hicimos un evento en el que hablamos en directo con un trabajador en Kenia que moderaba el contenido que producía Dall-E y Chat-GPT, y nos contó los problemas de salud mental que le creaba ese trabajo. Decía que era mucho peor que moderar contenido creado por una persona porque acababa preguntándose todo el rato si lo que veía ocurría o no en la vida real. Imagina todos los problemas que hemos sufrido con la moderación y las redes sociales, pero multiplicados por 1.000, por la explosión tan brutal de contenido sintético que estamos viendo.

De alguna forma, han conseguido salirse con la suya, y dicen que es imparable y revolucionario. Lo más loco es que ves a gente en este campo, en IA, que son auténticos fanáticos de lo que está ocurriendo. Se han inventado este término, AGI, y dicen, “oh, este sistema muestra características de AGI”. Pero, ¿qué es AGI, siquiera? No hay acuerdo sobre ello. Hace poco Microsoft publicó otro paper que no estaba revisado por pares donde decía que GPT-4 muestra “destellos” de AGI. ¿Qué significa eso? No hay una definición científica. Y la primera referencia de ese estudio era a un artículo de opinión de un grupo de investigadores que argumentan que hay diferencias en inteligencia dependiendo de la raza. Luego tuvieron que pedir disculpas. Ves estas cosas y te das cuenta de la locura por la que estamos pasando.

En la película Her, su protagonista (interpretado por Joaquin Phoenix, en la imagen) se enamora de una IA.

P. ¿Por qué cree que no se puede confiar en Google, Microsoft o OpenAI para el desarrollo de la IA?

R. Si miras a sus objetivos, su principal meta es hacer cuando más dinero mejor. No hay otro incentivo. Cuando la ciencia tiene el objetivo de ganar más dinero o ayudar a un gobierno a ganar una guerra, acabamos en una situación como la actual. Estas compañías están tratando de conseguir todo el dinero posible robando, no contándonos qué hay detrás de sus sistemas – ni siquiera nos enseñan los datos que han usado ni si han pedido permiso para obtenerlos – y explotando a trabajadores. Decir “¡confía en mí, bro!” no es una política. Necesitamos algún tipo de estructura para forzarles a hacer las cosas de forma diferente.

FUENTE Y LEER COMPLETO

https://www.elconfidencial.com/t

Deja un comentario