
La inteligencia artificial de las emociones utiliza señales biológicas como el tono vocal , las expresiones faciales y datos de dispositivos portátiles, así como texto y cómo las personas usan sus computadoras, prometiendo detectar y predecir cómo se siente alguien.
Se utiliza en contextos tanto mundanos, como el entretenimiento, como de alto riesgo, como el lugar de trabajo, la contratación y la atención sanitaria.
Una amplia gama de industrias ya utilizan inteligencia artificial (IA) emocional, incluidos los centros de llamadas, las finanzas, la banca, la enfermería y la prestación de cuidados.
Más del 50 % de los grandes empleadores de EE. UU. utilizan la IA emocional para inferir los estados internos de los empleados , una práctica que creció durante la pandemia de COVID-19 .
Por ejemplo, los call center monitorean lo que dicen sus operadores y su tono de voz.
Los académicos han expresado su preocupación por la validez científica de la IA de las emociones y su dependencia de teorías controvertidas sobre las emociones .
También han destacado el potencial de la IA emocional para invadir la privacidad y exhibir prejuicios raciales , de género y de discapacidad .
Algunos empleadores utilizan la tecnología como si fuera perfecta, mientras que algunos académicos buscan reducir su sesgo y mejorar su validez, desacreditarla por completo o sugerir prohibir la IA emocional , al menos hasta que se sepa más sobre sus implicaciones.
(…)
Los participantes señalaron que se negarían a trabajar en un lugar que utilizara IA emocional (una opción que no está disponible para muchos) o adoptarían comportamientos que hicieran que la IA emocional los interpretara favorablemente para proteger su privacidad .
Un participante dijo: “Ejercería una enorme cantidad de enmascaramiento de energía incluso cuando estuviera solo en mi oficina, lo que me distraería mucho y me volvería improductivo”, señalando cómo el uso de la IA emocional impondría un trabajo emocional adicional a los trabajadores.
Si la IA emocional funciona como se afirma y mide lo que dice medir, e incluso si se abordan los problemas de sesgo en el futuro, los trabajadores seguirán sufriendo daños, como el trabajo emocional adicional y la pérdida de privacidad .
Si estas tecnologías no miden lo que afirman o son parciales, entonces las personas están a merced de algoritmos que se consideran válidos y confiables cuando no lo son.
Los trabajadores aún necesitarían esforzarse para tratar de reducir las posibilidades de que el algoritmo los malinterprete o de participar en manifestaciones emocionales que favorezcan al algoritmo.
De cualquier manera, estos sistemas funcionan como tecnologías tipo panóptico , creando daños a la privacidad y la sensación de estar siendo observados.
AUTOR, FUENTE Y LEER COMPLETO EN
Nazanin Andalibi, Ph.D., es profesora asistente en la Escuela de Información de la Universidad de Michigan, donde también está afiliada al Centro de Ética, Sociedad y Computación, el Instituto de Estudios Digitales y el Centro para la Responsabilidad de las Redes Sociales.