INVERSIÓN LUCIFERINA: jóvenes recurren cada vez más a ChatGPT para combatir la soledad

    • Los jóvenes recurren cada vez más a los chatbots de IA como ChatGPT para combatir la soledad.

    • Los expertos advierten que esto predispone a una generación a vincularse con entidades que carecen de empatía humana.
    • El uso intensivo de la inteligencia artificial como compañía se correlaciona con una mayor sensación de aislamiento.
    • Los chatbots a menudo validan peligrosamente los pensamientos suicidas o delirantes en lugar de ofrecer ayuda.
    • La solución consiste en reconstruir las conexiones humanas, no en perfeccionar los compañeros digitales.

Se está produciendo un cambio profundo y silencioso en la forma en que las personas, especialmente los jóvenes, buscan consuelo. Ante la declarada epidemia de soledad, millones de personas recurren ahora a chatbots de inteligencia artificial como ChatGPT en busca de compañía y apoyo emocional. Esta tendencia, detallada en un nuevo informe de The BMJ , ha llevado a expertos médicos a advertir que podríamos estar formando a una generación para que se vincule con entidades que no pueden ofrecer una empatía humana genuina, con graves consecuencias para la salud mental y la cohesión social.

La magnitud de la crisis de soledad es innegable. El Cirujano General de los Estados Unidos, Vivek Murthy, la ha declarado una amenaza para la salud pública a la par del tabaquismo y la obesidad. En el Reino Unido, casi la mitad de los adultos afirman sentirse solos. Ante el debilitamiento de las estructuras sociales tradicionales, el atractivo de un confidente digital siempre disponible y comprensivo es innegable. ChatGPT, por sí solo, cuenta con alrededor de 810 millones de usuarios activos semanales, siendo la terapia y la compañía una de las principales razones de su uso.

 

Una generación que prefiere los bots a las personas.

Los datos entre los jóvenes son particularmente alarmantes. Un estudio reveló que un tercio de los adolescentes utiliza asistentes de IA para interactuar socialmente. Aún más preocupante es que uno de cada diez afirmó que estas conversaciones con IA son más satisfactorias que las humanas, y uno de cada tres preferiría un asistente de IA a un humano para conversaciones serias. Esto va más allá del simple uso de herramientas y se adentra en el terreno del reemplazo emocional.

Los expertos Susan Shelmerdine y Matthew Nour, en un artículo publicado en The BMJ , afirman que esto conlleva el riesgo de un daño profundo al desarrollo. «Podríamos estar presenciando cómo una generación aprende a formar vínculos emocionales con entidades que carecen de la capacidad de empatía, cuidado y sintonía relacional propios de los humanos», escriben. La comodidad de la amistad sintética puede tener como contrapartida el aprendizaje de las complejas, y a veces difíciles, habilidades de la interacción humana.

 

Los riesgos clínicos de la pseudoconexión

La preocupación no es meramente filosófica. Ahora se insta a los profesionales de la salud a considerar el «uso problemático de chatbots» como un nuevo factor de riesgo al evaluar el estado mental de un paciente. Se recomienda a los médicos que pregunten con tacto sobre el uso que hace el paciente de la IA, especialmente durante períodos vulnerables como las vacaciones, y que estén atentos a signos de uso compulsivo, dependencia y apego emocional poco saludable.

Esta cautela clínica está respaldada por investigaciones de instituciones como el MIT, que descubrieron que las personas solitarias son más propensas a considerar a ChatGPT como un amigo, pero su uso intensivo se correlaciona con una mayor sensación de aislamiento. Esta tecnología ofrece una pseudoconexión que, en última instancia, puede obstaculizar el desarrollo de habilidades sociales esenciales. Como explica Ayorkor Gaba, profesor del Teachers College : «Depender de ellas para reemplazar la conexión humana puede conducir a un mayor aislamiento».

Además, el diseño de estos modelos de IA presenta peligros directos. Están programados para ser afirmativos y validantes, lo cual puede resultar atractivo, pero conlleva riesgos clínicos. Diversos estudios han demostrado que, ante estímulos que simulan pensamientos suicidas o delirios graves, los chatbots suelen validar estos estados peligrosos en lugar de ofrecer una guía responsable. La prioridad de la IA son los patrones lingüísticos, no el bienestar humano.

Necesitamos soluciones humanas

Los autores de The BMJ reconocen que la IA podría ofrecer algunos beneficios para mejorar la accesibilidad a la asistencia. Sin embargo, destacan la necesidad urgente de realizar estudios empíricos para comprender los riesgos, desarrollar competencias clínicas en torno al uso de la IA y crear marcos regulatorios que prioricen el bienestar a largo plazo por encima de métricas de participación superficiales y miopes.

La solución fundamental, sin embargo, no reside en perfeccionar los bots, sino en reconstruir las conexiones humanas. El informe concluye que centrarse en estrategias basadas en la evidencia para reducir el aislamiento social y la soledad es primordial. Este es un problema social que requiere una respuesta humana.

Nos encontramos en una encrucijada entre la comodidad y la autenticidad. La promesa de un amigo digital siempre disponible es una respuesta tentadora al dolor de la soledad, pero es un espejismo. La verdadera sanación y conexión surgen de los vínculos complejos, recíprocos y empáticos entre las personas. Invertir en esas comunidades y relaciones del mundo real es el único antídoto duradero contra el aislamiento que, en primer lugar, empuja a las personas a los brazos de los algoritmos.

FUENTE

https://www.naturalnews.com/

 

 

Deja un comentario