Chipalienados y Despotismo Tecnificado

EI complejo mediático-tecnológico-militar-industrial

Dos años después, esa misma idea quedó plasmada en el concepto del ‘complejo militar-industrial’, articulado por primera vez por el entonces presidente republicano de los Estados Unidos, Dwight D. Eisenhower. En su discurso de despedida, en 1961, Eisenhower pronunció una célebre advertencia dirigida al pueblo estadounidense:Debemos evitar que el complejo militar-industrial adquiera una influencia injustificable, sea buscada o no. Existen y existirán circunstancias que harán posible que surjan poderes en lugares indebidos, con efectos desastrosos.

Mills, al igual que Eisenhower, reflexionaba sobre el crecimiento exponencial y la consolidación de las grandes empresas, el estamento militar y la burocracia gubernamental en el período de la posguerra, junto con el rápido desarrollo de las tecnologías e infraestructuras de la comunicación.

Estos no eran procesos casuales y autónomos, sino que constituían una estructura de poder de las élites cada vez más integrada, que trascendía los mecanismos formales de control del sistema político.

Para los críticos de Mills, todo argumento que insinuara la existencia de algún tipo de club cerrado en los escalafones más altos del poder estatal-empresarial carecía de fundamento empírico y contradecía radicalmente lo que parecía ser una tendencia imperante y opuesta, que se caracterizaría por una creciente división de las élites, en un momento en que la economía política cada vez era más compleja y estaba más fragmentada.

Tal como observaba Daniel Bell con respecto al poder empresarial en los Estados Unidos de la posguerra: “Solo se me ocurre un tema sobre el que estarían de acuerdo las principales grandes empresas: la política fiscal. En casi todo lo demás, están divididas”.

Bell apuntaba algunas de las divergencias que afectaban a los intereses industriales en el período de la posguerra, como aquellas que dividían al transporte por ferrocarril, por carretera y aéreo, o al carbón, el petróleo y el gas natural.

En este ensayo, pongo de relieve algunas divergencias parecidas en la economía de la información digital, que se han puesto de manifiesto en las disputas públicas y las batallas jurídicas entre los propietarios de contenidos (en especial empresas editoras), los intermediarios (como motores de búsqueda y redes sociales) y los gestores de redes (como proveedores de servicios de internet y plataformas de aplicaciones).

Estos colosales enfrentamientos ―que entrañan desde la neutralidad de la red a los derechos de autor― parecen apuntar, al menos a simple vista, a una división mucho más profunda entre los poderes emergentes y los poderes establecidos que las tensiones industriales a las que se refería Bell.

En pocas palabras, el complejo mediático-tecnológico no parece reflejar la ‘interconexión entre consejos de administración’ que Mills atribuía a la élite en el poder ni el consenso hegemónico que hace tiempo que han identificado los críticos implacables de los medios de comunicación.

Las características esenciales de las puertas giratorias, las estrechas relaciones sociales y las alianzas estratégicas siguen siendo tan pertinentes hoy en día como lo eran en la década de 1950.

No obstante, si lo analizamos con más detenimiento, el panorama está mucho menos fragmentado de lo que parece. En las páginas que siguen, analizaremos la confluencia de intereses general y latente entre distintos actores de la economía de la información, así como las pruebas que apuntan a una dinámica cada vez más intensa de alianzas y colaboraciones que alcanza incluso al complejo militar-industrial.

Si bien la composición de la élite que ostenta el poder varía, de forma inevitable, en función del lugar y la época, las características esenciales de las puertas giratorias, las estrechas relaciones sociales y las alianzas estratégicas siguen siendo tan pertinentes hoy en día como lo eran en la década de 1950.

Esto no quiere decir que las tensiones entre los distintos intereses empresariales, tanto dentro del sector de las comunicaciones como entre este y otros sectores, sean una farsa. Pero tal como indicaba Mills, estas tensiones no retratan fielmente la realidad completa; y, quizá, ni siquiera una parte.

En el mundo de las llamadas noticias falsas y las posverdades, las características en gran medida invisibles del poder concentrado que Mills subrayaba, junto con su posible influencia en las agendas mediáticas, públicas y normativas, exigen un escrutinio urgente y renovado.

La sangre, las venas y el latido

Para poder llegar al fondo del asunto, debemos tener en cuenta cómo se está intensificando la concentración y la consolidación de los mercados mediáticos bajo la sombra de monopolios digitales como Google y Facebook.

De hecho, el fenómeno verdaderamente inaudito con respecto al poder de mercado de estos monopolios de plataformas no es tanto el alcance del dominio dentro de sus propios mercados principales (búsquedas y redes sociales), sino la inmensa influencia que ejercen sobre otros. Esto se debe, precisamente, al hecho de que ocupan el espacio que se sitúa entre las industrias construidas sobre el control de las redes y de los derechos de autor. Y por ello, han asumido el control de algo que tiene repercusiones de un calado mucho mayor: los medios para conectar a estas industrias con los usuarios finales.

 

ConsensoFabricado-facebook3.jpg
Fragmento de la infografía ‘Consenso fabricado’ (www.tni.org/consenso-fabricado)

Si el ‘tráfico derivado’ es ahora la sangre que alimenta a gran parte de las industrias culturales, y los canales y las redes por los que fluye ese tráfico constituyen las venas, los intermediarios son los encargados del latido. Y actualmente no existe una industria que dependa más de los latidos que la de las noticias. Facebook y Google, juntos, representan más del 70 % de los usuarios que se derivan a los sitios web de las grandes editoras de noticias. Se mire como se mire, esto se traduce en un sorprendente nivel de influencia en el mercado.

Para entender cuál es el impacto de la concentración en los mercados de noticias, debemos abordar la forma en que la dependencia del tráfico derivado ha incrementado los costes de capital en el mundo del periodismo digital, y erigido nuevas barreras para la entrada al mercado.

Aunque puede que la recopilación de noticias sea más barata que nunca, esta se ve contrarrestada por los crecientes costes de competir en volumen, mientras que el ruido informativo, cada vez mayor, significa que quienes deseen entrar en el mercado suelen necesitar unos presupuestos de marketing astronómicos para poder competir.

Esta realidad no solo se pone de manifiesto en el coste creciente de la publicidad, ya que las grandes empresas pueden pujar más alto que los actores más pequeños en las subastas de palabras clave y los están desbancando, sino también en el desarrollo de nuevas especialidades en el ámbito del marketing, a saber, las estrategias de optimización de los motores de búsqueda y las redes sociales, que tienen una especial relevancia para la industria de las noticias. Estas, a su vez, han generado una nueva clase profesional de especialistas en marketing y agencias que hacen que competir con los grandes nombres sea un negocio muy costoso.

La tiranía de los algoritmos

A pesar de estos obstáculos, la última década, más o menos, ha sido testigo del auge de un pequeño número de nuevas competidoras en los mercados editoriales digitales ya establecidos, que van desde The Huffington Post a Intercept.com. Sin embargo, el público general de estos medios tiende a ser marginal en comparación con las marcas dominantes de televisión y prensa, y queda por ver hasta qué punto plantean un desafío a las agendas consensuadas de los grandes medios convencionales.

Lo que está claro es que plantear ese desafío supone, desde una perspectiva comercial, un negocio de alto riesgo. Esto se explica en parte porque los principales algoritmos de las noticias favorecen de manera desproporcionada no solo a las grandes marcas ya establecidas, sino también a una agenda consensuada sobre qué es noticia.

En mayo de 2016, cinco personas filtraron la existencia de un equipo especialista de ‘editores’ en Facebook que se encargaba de modificar de manera manual los temas que eran tendencia. Este equipo, que trabajaba desde el sótano de las oficinas de la empresa en Nueva York, fue acusado de inyectar en la red un sesgo editorial contrario a los sectores conservadores, aunque este resultó ser más un reflejo de las opiniones políticas personales de los editores que de una línea editorial impuesta desde arriba.

Lo que sí se dispuso desde arriba fue una instrucción explícita de potenciar un consenso en la agenda: los editores debían asegurarse de que las historias que atraían una cobertura importante en los medios de comunicación y en Twitter recibieran un impulso extra si no figuraban como tendencia en Facebook de manera ‘orgánica’.

Algorithms.png

 

La potenciación de ese consenso en torno a qué es noticia también se puede integrar en el diseño de los algoritmos.Podría decirse que lo más parecido a la agenda de la actualidad en el mundo de las redes sociales son los temas de tendencia, los trending topics, de Twitter (que ahora también tienen su equivalente en Facebook). Estos resaltan los temas más populares que están apareciendo en la red social en un municipio o región determinados, y en un momento dado, como indican las etiquetas, los hashtags, que acompañan a los hilos de discusión.

En 2011, se generó una gran polémica cuando los activistas del movimiento Occupy ―una red de acción directa que surgió en los Estados Unidos a raíz de la debacle financiera de 2008― se dieron cuenta de que la etiqueta de Occupy Wall Street (OWS) nunca entraba en la lista de temas de tendencia en Nueva York.

Esto parecía especialmente raro porque OWS era el centro de un movimiento que, en aquellos días, estaba atrayendo una atención significativa por parte de los grandes medios de comunicación dominantes. #OccupyWallStreet también había sido tendencia en varias ocasiones en todo el mundo, pero nunca en la ciudad donde estaba desarrollando sus principales acciones directas y actividades de protesta. Y lo que resultaba aún más llamativo: lo mismo estaba sucediendo con la etiqueta #OccupyBoston, que muchas veces era tendencia en algunas ciudades y regiones que no fueran Boston, pero nunca en la misma ciudad de Boston.

Como no es de extrañar, la red social fue acusada de cooperar con las autoridades locales con la censura y otras acciones que perseguían sofocar el movimiento. Una parte de las sospechas emanaban del hecho de que el aparato técnico de los temas de tendencia siempre ha permanecido oculto del dominio público.Sin embargo, en un ejercicio brillante de análisis de datos basado en lo que se conoce como ‘ingeniería inversa’, Gilad Lotan demostró que las irregularidades detectadas en Boston y Nueva York no eran, de hecho, resultado de ninguna manipulación deliberada por parte de Twitter o las autoridades, sino más bien la consecuencia fortuita de una característica específica de un algoritmo.

A diferencia de lo que se podría dar por sentado, la forma en que Twitter determina qué es tendencia no se basa únicamente en el volumen de tuits que genera una determinada etiqueta en un determinado momento. Esto se debe a que uno de los principales intereses de Twitter con respecto a las tendencias ―como indica la misma palabra― está en apuntar a lo que es novedad.

Así pues, el algoritmo recompensa palabras y temas concretos que experimentan ‘repuntes’ en lo que se refiere a la atención y la participación de los usuarios, más que aquellos que generan una actividad constante y prolongada. El motivo por el que las etiquetas #OccupyWallStreet y #OccupyBoston nunca habían sido tendencia en sus respectivas ciudades está en que siempre, desde el principio, habían atraído un crecimiento gradual y sostenido de atención local, en contraposición a un mero repunte en torno a acontecimientos concretos que hubieran despertado una atención mediática más amplia.

Como observó Lotan: “No hay nada mejor que una redada policial y cientos de detenciones para potenciar la visibilidad de una noticia”.

Los repuntes de actividad [tendencias] suelen verse impulsados por los titulares… determinados por las grandes editoras de noticias en las salas de redacción tradicionales. Por lo tanto, en lugar de representar un reto a la agenda editorial que fijan los principales medios de comunicación, los temas de tendencia pueden servir de muchas maneras para reforzar esa agenda.

Así que, al fin y al cabo, no se trató de un episodio de censura; o al menos, no del tipo de censura que muchos sospechaban. Pero sí que reveló una característica importante de Twitter que podría tener consecuencias profundas para la agenda de la actualidad en general y para la forma en que la información fluye por la red. Los temas de tendencia se han convertido en un mecanismo clave por el que ciertas ideas o perspectivas ganan visibilidad en el mundo digital. En este sentido, se han convertido en un símbolo de aquello que merece interés mediático. La mayoría de la gente da por supuesto que reflejan los temas más populares en un momento y lugar dados, pero eso no es del todo cierto.

Los repuntes de actividad suelen verse impulsados por los titulares que todavía están predominantemente determinados por las grandes editoras de noticias en las salas de redacción tradicionales. Por lo tanto, en lugar de representar un reto a la agenda editorial que fijan los principales medios de comunicación, los temas de tendencia pueden servir de muchas maneras para reforzar esa agenda.

El tamaño sí importa

En cuanto a Google, el algoritmo de su servicio informativo lleva tiempo alineando a los proveedores de noticias con un amplio espectro de lo que considera que son unos indicadores fiables de calidad. Pero un análisis detallado del último registro de la patente de Google para su algoritmo de noticias revela hasta qué punto se utiliza el tamaño como indicador de la calidad en el mundo de las noticias digitales: el tamaño del público, el tamaño de la sala de redacción y el volumen de la producción.

En lo que respecta al público, Google recompensa a los proveedores que tienen un historial consolidado de clics de sus páginas, a aquellos que ocupan un lugar destacado en las encuestas de usuarios y datos recopilados por las agencias de estudios de mercado, y a aquellos con un alcance relativamente global, según lo detectado por los clics, los tuits, los ‘me gusta’ y los enlaces de usuarios de otros países. En cuanto a la capacidad de la sala de redacción, Google incorpora en su algoritmo mediciones que ‘estiman’ el número de periodistas (con referencia a las firmas), así como el número de ‘gabinetes’ que gestiona el proveedor de noticias.

No es difícil entender que estas mediciones pueden favorecer de forma desproporcionada a los principales proveedores de noticias, en detrimento de medios más especializados o alternativos. Por encima de todo, la ponderación de calidad de Google se basa en el volumen. Según el registro de la patente:

Una primera medición que determine la calidad de una fuente de noticias puede incluir el número de artículos producidos por dicha fuente durante un período determinado […] [y] puede venir determinada por el recuento de artículos no duplicados […] [o] el recuento del número de frases originales producidas.

Algunas mediciones de volumen favorecen las noticias largas y originales, que son indicadores bastante indiscutibles de calidad (aunque sigan favoreciendo a los medios de noticias de dimensiones relativamente grandes y con más recursos).

Pero otras son más problemáticas. Por ejemplo, Google recompensa a los medios que ofrecen una cobertura informativa ‘amplia’, lo cual penaliza a los medios de noticias más especializadas. En este sentido, especializarse representa realmente la única forma de competir que tienen los potenciales entrantes en el mercado ―que carecen de los recursos y las dimensiones de los proveedores existentes―, al ofrecer una alternativa informativa de fondo y ‘de calidad’.

Puede que la medición más polémica sea aquella que afirma medir lo que Google denomina ‘importancia’… se trata de una medición que refuerza una ‘agenda’ agregada de noticias y, a la vez, el poder para fijar esa agenda informativa por parte de un número relativamente pequeño de editoras.

Puede que la medición más polémica sea aquella que afirma medir lo que Google denomina ‘importancia’, comparando el volumen de la producción de un sitio web sobre un tema determinado con el conjunto de la producción sobre ese tema en toda la red. Con una sola medición, se fomenta tanto la concentración en el nivel del proveedor (al favorecer a los medios con mayor volumen y de grandes dimensiones) como en el nivel de la producción (al favorecer a los medios que generan más noticias sobre temas que gozan de una gran cobertura en otros lugares).

En otras palabras, se trata de una medición que refuerza una ‘agenda’ agregada de noticias y, a la vez, el poder para fijar esa agenda informativa por parte de un número relativamente pequeño de editoras.

Google favorece los indicadores automatizados porque se basan menos en la interpretación subjetiva humana del valor de una noticia. Pero aunque puede que, en cierto sentido, estén libres de prejuicios subjetivos, por el otro, se basan en indicadores de calidad cuantitativos, que generan su propio sesgo hacia los proveedores de gran escala y convencionales.

Puede que los ingenieros de Google sostengan que la diversidad de las mediciones integradas en el algoritmo asegura que los efectos de concentración contrarresten los efectos pluralizantes, y que no haya una forma más legítima o autorizada de medir la calidad de las noticias que basarse en un amplio espectro de indicadores cuantitativos. En todo caso, con o sin razón, Google cree que los proveedores de ‘noticias de verdad’ son aquellos que pueden producir una cantidad significativa de noticias originales, de última hora y generales sobre una gran diversidad de temas y de manera constante.

A primera vista, el planteamiento no suena tan mal. En un mundo saturado de estridencias mediáticas, rumores y noticias falsas, no es sorprendente que la mayoría de la gente se sienta atraída por las marcas informativas que parecen gozar de cierto grado de profesionalidad. Pero hay pocas pruebas que indiquen que las grandes marcas informativas hayan actuado como contrapesos significativos a las noticias falsas y muchas que sugieren que, de hecho, han servido para amplificarlas.

Tomemos el ejemplo de una carta abierta que exhortaba a que se volviera a votar al Partido Conservador durante la campaña de las elecciones generales del Reino Unido en 2015. La carta se publicó en la portada del diario The Daily Telegraph y se presentó como una iniciativa espontánea de una comunidad de pequeños empresarios, con al parecer unos 5000 firmantes, acompañada de una declaración que rogaba a los votantes que les dieran a los conservadores “la oportunidad de terminar lo que empezaron”. La noticia fue debidamente recogida por la BBC y otros canales de noticias, y recibió una gran cobertura, sin ser sometida a un examen crítico, en una jornada en la que los conservadores, precisamente, habían presentado su manifiesto para las pequeñas empresas y en la que el entonces dirigente del partido, David Cameron, pronunció un discurso ante un público integrado por representantes de las pequeñas empresas en Londres.

Sin embargo, transcurridas unas horas, se desveló que la carta había salido del cuartel general de campaña del propio Partido Conservador y, poco después, los usuarios de Twitter identificaran varios signatarios duplicados, así como referencias a empresas que ya no existían o que afirmaban que no habían firmado la carta. Entre los firmantes encontraron incluso a candidatos del Partido Conservador.

Pero para entonces, la noticia no revisada ya había llegado a muchos más millones de posibles votantes, gracias a los principales medios de radiodifusión. Por su parte, Google considera de forma preventiva que las grandes marcas informativas, como la BBC, tienen más probabilidades de generar lo que considera que son noticias de calidad. La compañía lo dejó muy claro en su solicitud de patente: “Por lo general, se considera que la CNN y la BBC son fuentes de alta calidad de rigor informativo, profesionalidad en la redacción, etcétera, mientras que las fuentes de noticias locales, como las de carácter municipal, pueden ser de menor calidad”.

Cuando las grandes marcas de noticias occidentales se presentan como el punto de referencia definitivo de la calidad de las noticias, empezamos a toparnos con auténticos problemas desde el punto de vista de la diversidad de los medios. Para empezar, las mediciones de calidad de Google otorgan a sus medios informativos preferidos un mayor peso anticipado , lo que significa que la clasificación de las noticias no se corresponde exclusivamente con las palabras clave de una determinada búsqueda. Así, puede que el artículo de un proveedor relativamente poco conocido se vea desbancado por los competidores con mayor escala y presencia de marca, aunque el artículo en cuestión sea más pertinente por sus palabras clave, profundidad y originalidad.

Puede que lo más preocupante sea que el algoritmo de noticias de Google discrimina a los proveedores que se centran en temas y acontecimientos que no forman parte de la agenda dominante, o que están en sus límites. Incluso su indicador de la ‘originalidad’ ―que en teoría favorece la diversidad de perspectivas en las noticias en general― se limita a medir el número de “entidades nombradas originales” que aparecen en un determinado artículo en comparación con la cobertura afín del mismo tema o suceso.

Esta alianza de base entre Google y las principales editoras de noticias no se corresponde con la batalla pública de retórica que ha rodeado a temas como los derechos de autor complementarios.

En 2013, el Gobierno alemán aprobó una ley por la que intentaba obligar a Google a pagar a las editoras por el uso de contenido almacenado en caché en las listas de búsqueda. Sin embargo, en cuestión de apenas unas semanas, la ley perdió toda validez, ya que las editoras se unieron para ofrecerle a Google una licencia libre de derechos de autor. Con ello, se hizo evidente que, además de que Google valore el contenido de las noticias de las principales editoras, estas dependen aún más del tráfico derivado que les proporciona Google.

La interconexión entre ejército, medios y vigilancia

Podría decirse que algo más jugoso que la relación entre Google y las grandes editoras en los últimos años ha sido la relación entre Google y los Gobiernos de los Estados Unidos y el Reino Unido en los ámbitos de la vigilancia y la encriptación.

En 2013, una serie de documentos clasificados filtrados por Ed Snowden suggested that the US National Security Agency (NSA) insinuaban que la Agencia Nacional de Seguridad de los Estados Unidos (la NSA, por sus siglas en inglés) había utilizado de manera encubierta la infraestructura principal de varios intermediarios, como Google, lo cual provocó un aluvión de críticas por lo que parecía ser el pirateo de sus servidores.

Los intermediarios también respondieron instalando o actualizando la encriptación de sus servidores y programas, lo que llevó al Gobierno estadounidense a recurrir a los tribunales para obligar a que se abriera ‘la puerta de atrás’, y al Gobierno británico a consagrar medidas parecidas en un nuevo proyecto de ley.

Google, en concreto, reaccionó con una especial indignaciónante las revelaciones de Snowden, censurando al Gobierno de los Estados Unidos por sus actividades de vigilancia y por no proteger la privacidad de los usuarios. Sin embargo, ahora sabemos que, en ese mismo período, la compañía estaba intentando colaborar activamente con los programas de vigilancia del Estado.

El 18 de febrero de 2014, cientos de activistas por las libertades civiles y el derecho a la intimidad inundaron el Ayuntamiento de Oakland, en California, para protestar por un sistema de vigilancia de última generación implantado por el gobierno local, conocido como Domain Awareness Center.

El programa estaba basado en un nodo centralizado que recibía información de cámaras de televisión por circuito cerrado en tiempo real y otros canales de audio, video y datos de toda la ciudad, y los integraba con una amplia gama de aplicaciones de vigilancia, como programas de reconocimiento facial. Financiado por el Gobierno federal, las autoridades de Oakland habían elogiado el proyecto por ser una iniciativa innovadora e integral en materia de seguridad pública.

Sin embargo, esto no bastó para convencer a aquellos ciudadanos a quienes les había preocupado, desde el principio, la amenaza sin precedentes a la intimidad y las libertades civiles que planteaba el alcance del programa.

A los manifestantes que acudieron a esta protesta en particular, además, les preocupaba otra cuestión. Después de que la Oficina de Registros Públicos impusiera la obligación de revelar una gran cantidad de correos electrónicos internos, quedó claro que el programa no solo perseguía proteger a los habitantes en caso de que se produjera una catástrofe natural o un ataque terrorista, según sostenían las autoridades. El programa parecía tener también en su punto de mira a los activistas políticos y a los desobedientes civiles de una forma que ponía el dedo en la llaga de una ciudad con una preocupante trayectoria de brutalidad policial.

En aquella protesta, los manifestantes obtuvieron una concesión notable por parte de las autoridades, que accedieron a limitar el proyecto de vigilancia solo al puerto y al aeropuerto de la ciudad, y no a toda su área metropolitana, tal como se había previsto originalmente.

En toda esta historia tuvo lugar un episodio que pasó casi desapercibido. Entre los miles de correos electrónicos que se hicieron públicos se encontraba una conversación entre un cargo del Ayuntamiento, Renee Domingo, y Scott Ciabattari, un ‘administrador de alianzas estratégicas’ de Google. En uno de esos correos, Domingo le solicitaba a Google una presentación de “demos y productos” que pudieran funcionar con el programa Domain Awareness Center, así como ideas, más en general, de “cómo podría la ciudad colaborar con Google”. La compañía parecía encantada de participar en las mismas prácticas de vigilancia pública indiscriminada que tanto había criticado públicamente en respuesta a las filtraciones de Snowden.

Interconexiones

mediatanks

Este no es un ejemplo aislado de la predisposición de Google a desarrollar alianzas con el Estado de la vigilancia y militar.

Pensemos en Michelle Quaid, directora de Tecnología para el Sector Público de Google entre 2011 y 2015, y elegida como la mujer más poderosa del mundo empresarial por la revista Entrepreneur Magazine en 2014. Antes de entrar en Google, se había labrado una prodigiosa carrera desempeñando varios cargos en el Departamento de Defensa y distintos organismos de inteligencia de los Estados Unidos. En Google, autodefinió su posición como la de “responsable de tender puentes” entre las grandes empresas tecnológicas y el Gobierno, en especial en los ámbitos del ejército y la inteligencia.

Otros altos cargos del departamento ‘federal’ de Google también reflejan los intentos de la empresa de sacar provecho de unas lucrativas alianzas con el aparato militar y de seguridad. Puede que el de más alto rango sea Shannon Sullivan, jefe de Google Federal, el departamento de la empresa que se encarga de hacer negocios con el Gobierno. Sullivan es exdirector de Defensa de BAe Systems, la mayor empresa de fabricación de armamento del mundo, y asesor militar superior de la Fuerza Aérea estadounidense.

El paso habitual de altos cargos de las más altas instancias de la Casa Blanca a los consejos de administración de las grandes empresas tecnológicas, y viceversa, ha dado lugar a una puerta más que giratoria: a una verdadera lanzadera.

Pero no es solo el Estado de seguridad el que ha desarrollado estrechos vínculos con Google. A pesar de las críticas que le llovieron durante un tiempo a raíz de las filtraciones sobre sus actividades de vigilancia en 2013, el Gobierno de Obama había forjado desde el principio una auténtica historia de amor con Silicon Valley. El paso habitual de altos cargos de las más altas instancias de la Casa Blanca a los consejos de administración de las grandes empresas tecnológicas, y viceversa, ha dado lugar a una puerta más que giratoria: a una verdadera lanzadera.

Loisa Terrell, antigua asesora jurídica de Obama, se sumó al equipo de Facebook como jefa de Políticas Públicas en 2011, antes de ser designada como asesora de la Presidencia de la Comisión Federal de Comunicaciones (FCC) en 2013. Y en 2015, Facebook contrató al expresidente de la FCC, Kevin Martin, para dirigir su política de acceso mundial y móvil.

ConsensoFabricado-facebook4
Las empresas de tecnología también han incrementado las donaciones políticas en los últimos años, estableciendo ‘comités de acción política’ para coordinar sus iniciativas de cabildeo político y aportaciones de campaña durante los ciclos electorales. Como no es de extrañar, el mayor comité de acción política es el de Google, que ha crecido de forma exponencial desde que se creó, en 2006.

En las elecciones de mitad de mandato de 2014, Google se gastó 1,6 millones de dólares, frente a los 40 000 de 2006; y en el ciclo electoral de 2016, 2,2 millones de dólares, en su mayor parte en candidatos republicanos.  Dos años antes, Michelle Quaid, de Google, entró en el consejo de administración de la empresa tecnológica Voter Gravity, que proporciona servicios a los candidatos republicanos y apoyo tecnológico a una serie de grupos conservadores.

Durante el ciclo electoral 2015-16, Google destinó casi 12 millones de dólares a actividades de cabildeo entre representantes de los Estados Unidos, y tres de cada cuatro de esos cabilderos habían ocupado anteriormente altos cargos en el Gobierno.

En 2015, Google contaba con 10 empleados dedicados al cabildeo entre políticos europeos, una inversión que parece haber dado algunos frutos, al menos con el Gobierno británico.

Según una investigación realizada en 2015 por el diario The Observer, “Gran Bretaña ha estado presionando en privado a la UE para que elimine de una lista negra oficial el paraíso fiscal a través del que Google canaliza miles de millones de libras de beneficios”.

En 2014, hacia el final de su mandato como comisario de Competencia de la UE, Joaquín Almunia se quejó amargamente de la presión que ejercían los Gobiernos de los Estados miembros para ponérselo fácil a Google. Almunia había encabezado una serie de investigaciones antimonopolio sobre la empresa durante su mandato de cuatro años y, quizá por casualidad, resultó ser una de las víctimas de las actividades de vigilancia de la Sede de Comunicaciones del Gobierno Británico (GCHQ) y la NSA en una lista de objetivos filtrada por Ed Snowden.

En los últimos años, también han girado las puertas entre empresas intermediarias y empresas mediáticas. En 2010, Google contrató a Madhav Chinnappa, exjefe de Desarrollo y Derechos de BBC News, para que dirigiera su equipo de colaboraciones para Europa, Oriente Medio y África, mientras que, en 2015, la alta ejecutiva de Google Michelle Guthrie fue contratada por el principal canal de radiodifusión de Australia, ABC.

El año siguiente, Facebook reclutó al editor jefe de Storyful ―la agencia de noticias de redes sociales de Newscorp― para que gestionara sus alianzas con otros medios, mientras que el vicepresidente de Comunicaciones y Asuntos Públicos para Europa, Oriente Medio y África de Google es (en el momento de escribir estas líneas), Peter Barron, exeditor del programa Newsnight de la BBC.

Los cargos en los departamentos de Comunicaciones y Relaciones Públicas también tienen sus puentes entre los medios de comunicación y el Gobierno. En el Reino Unido, la condena y el encarcelamiento del antiguo editor de News of the World, Andy Coulson, en 2015, representó una verdadera catástrofe desde el punto de vista de las relaciones públicas para el entonces primer ministro, David Cameron, que había contratado a Coulson para que dirigiera sus comunicaciones después de que este hubiera abandonado el diario, en 2010. .

Y aunque puede que sea menos destacada, cabe mencionar la interconexión que existe entre los consejos de administración de medios de comunicación, el Estado y la industria de defensa.  William Kennard, por ejemplo, ha formado parte de los consejos de administración de The New York Times, AT&T y varias empresas propiedad de Carlyle Group, una de las grandes contratistas de defensa de los Estados Unidos.15 Entre sus empleos a tiempo completo, se cuenta su labor como presidente de la Comisión Federal de Comunicaciones (1997-2001), director ejecutivo de Carlyle Group (2001-2009) y embajador de los Estados Unidos ante la UE (2009-2013).

Quizá más importantes que los vínculos formales entre las grandes empresas tecnológicas, los medios de comunicación y el Estado son los diversos espacios y foros que frecuentan sus representantes, tanto por motivos sociales como profesionales. Por ejemplo, se dice que fue en la conferencia Sun Valley, que se celebra todos los años en Idaho, donde se fraguaron fusiones tecno-mediáticas como la compra de NBC por parte de Comcast en 2009, y el acuerdo que puso The Washington Post en manos del fundador de Amazon, Jeff Bezos, en 2013.

El hecho de que los políticos mantengan reuniones o desarrollen amistades cercanas con ejecutivos de los medios de comunicación no tiene nada de reprobable desde el punto de vista jurídico y, quizá, incluso ético. La cuestión problemática tiene que ver con el grado en el que este tipo de interacción ―que se produce al margen de todo escrutinio público― produce una ‘influencia por filtración’ sobre los medios de comunicación y las agendas normativas.

En cuanto a los grupos sociales, en el Reino Unido está el que se conoce como ‘Chipping Norton Set’, una cuadrilla de élites mediáticas y políticas que viven en la selecta localidad de Chipping Norton, en el condado de Oxfordshire, o cerca de ella. Entre sus miembros, cabe destacar a David Cameron, Elizabeth Murdoch (hija de Rupert), Rebekah Brooks (ahora directora ejecutiva de las actividades de prensa de Murdoch en el Reino Unido) y Rachel Whetstone (exdirectora de Comunicaciones y Políticas Públicas de Google).

La resistencia de estos lazos tan estrechos tras el escándalo de las escuchas telefónicas quedó patente en diciembre de 2015, cuando los Murdoch recibieron a Cameron, entre otras figuras destacadas, para tomar una copa con motivo de las fiestas navideñas. Este encuentro llegaba tras reuniones constantes entre Murdoch y ministros del Gobierno en el año previo a las elecciones generales de 2015.

Por supuesto, el hecho de que los políticos mantengan reuniones o desarrollen amistades cercanas con ejecutivos de los medios de comunicación no tiene nada de reprobable desde el punto de vista jurídico y, quizá, incluso ético. La cuestión problemática tiene que ver con el grado en el que este tipo de interacción ―que se produce al margen de todo escrutinio público― produce una ‘influencia por filtración’ sobre los medios de comunicación y las agendas normativas.

Uno de los rasgos más sorprendentes de los testimonios presentados ante la comisión de investigación Leveson en 2012 por parte de ex primeros ministros (incluidos amigos cercanos de Rupert Murdoch) fue la franca admisión de que sus opiniones se veían afectadas, según señaló Tony Blair, por “cómo nos tratan ellos”.

Conclusión

Aunque los ejemplos señalados en estas páginas no son en modo alguno exhaustivos, esbozan lo que representa una compleja red de poder institucional, en la que los actores en los ámbitos de los medios, las comunicaciones y la tecnología ocupan nodos clave y desempeñan un papel crucial.

Esto no significa que ‘el club’ funcione como un vehículo de poder de las élites totalmente exclusivo, coherente, centralizado y coordinado. Ni siquiera nos dice mucho acerca de cómo se moviliza el poder para producir una agenda consensuada o hasta qué punto lo hace.

Pero todas estas son cuestiones empíricas que plantea el emergente complejo mediático-tecnológico-militar-industrial. Y son cuestiones que suelen pasar por alto quienes afirman o dan a entender que el concepto de una élite de poder o una hegemonía ideológica pertenece a un ‘paradigma del control’ obsoleto en los estudios sobre los medios de comunicación.

Activistas e investigadores debe permanecer alerta en un mundo en el que las marcas mediáticas establecidas todavía representan la gran mayoría del consumo de noticias en todas las plataformas, donde la propagación del nacionalismo basado en el miedo en gran parte de la prensa comercial ha sido explotada por actores políticos de la extrema derecha, y donde siguen imperando grandes preocupaciones sobre la autonomía de los periodistas en el contexto de la austeridad, la ruptura tecnológica y, en términos del Pentágono, “la larga guerra”.

Traducción: Beatriz Martínez

SOBRE EL AUTOR

Justin Schlosberg es activista, investigador y profesor especializado en medios de comunicación que trabaja en Birkbeck, Universidad de Londres, además de actual presidente del grupo Media Reform Coalition. Su último libro, Media Ownership and Agenda Control,  aboga por un replanteamiento radical de la regulación de la propiedad de los medios de comunicación, situando el movimiento por la reforma progresista de los medios en sintonía con luchas más amplias contra las desigualdades y las injusticias del capitalismo global.

—–
—–

Fuente: TNI org

Visto en: Cultura y resistencia

https://culturayresistenciablog.wordpress.com/2018/10/15/estado-del-poder-2017-el-complejo-mediatico-tecnologico-militar-industrial-por-justin-schlosberg/

Responder

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s