NOTA MIA: Esta noticia me recuerda un consejo muy desafortunado que leí en ZERO HEDGE relacionada con la Electronic Frontier Foundation (sí, esa misma fundación que ha venido a México a dar charlas de la mano de las feministas s0r0s en el Museo de la Tolerancia), donde esta última alentaba a la gente a usar cubrebocas y personalizarlos; poniéndoselo todavía más fácil a la IA de seguimiento y control globalista.
La EFF ya no es lo que era. Ya han quedado muy atrás los tiempos de gloria que le procuró John Perry Barlow Q.E.P.D. (Jorge Lizama)
–
Cuanta más gente se haga selfies con sus cubrebocas, más fácil le resultará a la IA aprender a identificarlos en una multitud
Algunos han especulado que el impulso hacia el uso de cubrebocas/máscaras faciales podría tener la consecuencia involuntaria de fastidiar los planes del estado profundo de implementar programas de vigilancia de reconocimiento facial generalizados. Pero no se engañen: los cubrebocas/máscaras faciales representan sólo la siguiente fase de la tecnología avanzada de reconocimiento facial.
Lo creas o no, la inteligencia artificial (IA) está aprendiendo ahora mismo a identificar a la gente incluso con sus cubrebocas/máscaras faciales puestas, especialmente cuando cooperan de buena gana publicando “selfies” enmascarados de sí mismos en los medios sociales. Cuanta más gente muestre sus últimos bozales de macramé, más fácil le resultará a la IA aprender a identificarlos en una multitud.
Las empresas de reconocimiento facial están desarrollando nuevas formas de utilizar otros rasgos faciales, sobre todo los ojos, para identificar a las personas incluso cuando sus bocas no son visibles. Y cuantas más fotos enmascaradas puedan obtener estas compañías para programar sus sistemas de software, más fácil es trazar un mapa de los segmentos de la población que participan en esta “nueva normalidad”.
En abril, un equipo de investigadores publicó más de 1.200 imágenes enmascaradas que recogieron de Instagram a un “Conjunto de datos de imágenes de máscaras COVID19” alojado en Github. Un mes antes, la China comunista hizo lo mismo, poniendo 5.000 fotos enmascaradas recogidas en línea en su propio conjunto de datos.
Las empresas como la empresa de la IA Workaround ahora son capaces de peinar estas imágenes, etiquetarlas como sea necesario, y contrastarlas con fotos de máscaras de las mismas personas como parte del desarrollo de su nueva tecnología.
“Nos inspiraron todas las compañías que estaban lanzando herramientas libres y todo lo que pueden hacer para ayudar”, declaró Wafaa Arbash, CEO de Workaround. “Tenemos estas imágenes públicas de Instagram, así que no son imágenes privadas”, añadió. “Sólo estábamos buscando y obteniendo los datos correctos”.
Si tu perfil en los medios sociales es público, espera que tus imágenes sean capturadas por las compañías de reconocimiento facial de la IA y explotadas
Aunque pueda parecer una grave invasión de la privacidad, la ley técnicamente no prohibe este tipo de extracción de imágenes. Mientras las fotos de la gente sean públicas, compañías como Workaround pueden legalmente usarlas para propósitos de programación, aparentemente.
Aún así, los defensores de las libertades civiles advierten que la tecnología de reconocimiento facial, sin importar cómo se desarrolle, viola tanto los derechos de privacidad como la libertad de expresión.
Para tratar de evitar la mala óptica de esto, algunas compañías de reconocimiento facial de la IA están pidiendo a sus propios empleados que envíen fotos de sí mismos tanto con máscara como sin ella. Pero estas empresas todavía tienen que recopilar otras imágenes públicas para lograr sus objetivos.
Incluso las fotos de niños son recolectadas por estas compañías para ser usadas en la programación de sistemas, todo sin permiso, por supuesto. Si sus imágenes están ahí fuera para que el mundo las vea, resulta que las compañías pueden explotar lo que quieran de las suyas sin consentimiento.
Por eso es de vital importancia que la gente considere cuidadosamente las cosas que ponen en los medios sociales para que el mundo las vea, especialmente cuando sus perfiles no son privados. Si tu información es pública, las posibilidades de que alguien ahí fuera se aproveche de lo que compartes para su propio beneficio personal son mayores de lo que podrías pensar.
“No estamos ganando dinero con esto, no es comercial”, afirma Arbash sobre cómo su compañía está usando las imágenes enmascaradas y no enmascaradas de la gente. “El objetivo y la intención era ayudar a cualquier ingeniero de ciencias de la información o de aprendizaje de máquinas que esté trabajando para arreglar el problema y ayudar con la seguridad pública.”
Para estar al tanto de las últimas noticias sobre las tecnologías de la IA y cómo están invadiendo nuestra privacidad colectiva, asegúrate de revisar AISystems.news.
–
FUENTE:
https://privacywatch.news/2020-06-04-big-tech-face-mask-selfies-train-ai-facial-recognition.html