Facebook te alertará si tú o tus amigos se están volviendo extremistas antisistema

Facebook Inc (FB.O) está empezando a advertir a algunos usuarios que podrían haber visto “contenido extremista” en el sitio de medios sociales, dijo la compañía el jueves.

Las capturas de pantalla compartidas en Twitter mostraban un aviso que preguntaba “¿Te preocupa que alguien que conoces se esté convirtiendo en un extremista?” y otro que alertaba a los usuarios de que “es posible que hayas estado expuesto a contenido extremista dañino recientemente”. Ambos incluían enlaces para “obtener apoyo”.

La mayor red de medios sociales del mundo lleva tiempo recibiendo presiones de legisladores y grupos de derechos civiles para que combata el extremismo en sus plataformas, incluidos los movimientos internos de Estados Unidos implicados en los disturbios del 6 de enero en el Capitolio, cuando grupos que apoyaban al expresidente Donald Trump intentaron impedir que el Congreso de Estados Unidos certificara la victoria de Joe Biden en las elecciones de noviembre.

Facebook dijo que la pequeña prueba, que solo está en su plataforma principal, se estaba ejecutando en Estados Unidos como un piloto para un enfoque global para prevenir la radicalización en el sitio.

“Esta prueba es parte de nuestro trabajo más amplio para evaluar las formas de proporcionar recursos y apoyo a las personas en Facebook que pueden haber participado o estar expuestos a contenido extremista, o pueden conocer a alguien que está en riesgo”, dijo un portavoz de Facebook en un comunicado enviado por correo electrónico. “Nos estamos asociando con ONGs y expertos académicos en este espacio y esperamos tener más para compartir en el futuro”.

Dijo que los esfuerzos eran parte de su compromiso con el Llamado a la Acción de Christchurch, una campaña que involucra a las principales plataformas tecnológicas para contrarrestar el contenido extremista violento en línea que se lanzó después de un ataque de 2019 en Nueva Zelanda que fue transmitido en vivo en Facebook.

Facebook dijo en la prueba que estaba identificando tanto a los usuarios que podrían haber estado expuestos a contenido extremista que rompe las reglas como a los usuarios que habían sido previamente objeto de la aplicación de Facebook.

La compañía, que ha endurecido sus normas contra los grupos violentos y de odio en los últimos años, dijo que elimina algunos contenidos y cuentas que violan sus normas de forma proactiva antes de que el material sea visto por los usuarios, pero que otros contenidos pueden ser vistos antes de que se apliquen.

FUENTE

Reportaje de Elizabeth Culliford en Nueva York, edición de Kenneth Li y David Gregorio-

https://www.reuters.com/technology/

Responder

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s