REDACCIÓN.- El auge de ChatGPT como consejero emocional entre los jóvenes no es un fenómeno casual, sino un reflejo de cómo la tecnología comienza a ocupar espacios antes reservados a las personas.
A medida que el uso de la inteligencia artificial se populariza, cada vez más personas de la Generación Z y los millennials recurren a esta herramienta para pedir consejos sentimentales, resolver dudas amorosas y explorar sus emociones sin el temor al juicio o la falta de disponibilidad que podrían encontrar en las relaciones personales.
Para muchos jóvenes, la IA ofrece algo que no encuentran en sus círculos de apoyo: disponibilidad constante y la libertad de preguntar sin sentirse evaluados, enfatiza una nota del diario El País.
Esta apertura digital responde a una necesidad de guía en un mundo donde los referentes de apoyo emocional humano escasean o, al menos, no siempre son percibidos como accesibles.
A medida que ChatGPT se consolida como un apoyo emocional, surgen preocupaciones sobre la ética y la validez de los consejos que ofrece. Aunque la IA puede simular empatía y comprensión, expertos en salud mental y ética advierten sobre los límites de este recurso automatizado en el plano emocional.
“La respuesta de una máquina, aunque estructurada para sonar empática, carece de una experiencia emocional genuina”, coinciden varios especialistas.
Para los psicólogos, el problema radica en que la IA responde basándose en patrones de conversación y no en una comprensión auténtica del contexto emocional del usuario.
Esto plantea la posibilidad de que los usuarios puedan interpretar la respuesta de la IA como si proviniera de un interlocutor humano, asumiendo un nivel de validación que una máquina no puede realmente ofrecer.
Además, ChatGPT no distingue entre situaciones complejas que pueden requerir una intervención profesional y consultas superficiales, lo cual podría derivar en riesgos de dependencia y en una despersonalización de las relaciones. Como señala el análisis, “la falta de un límite claro entre la contención y el consejo puede llevar a que algunos usuarios perciban a la IA como un sustituto real de la ayuda humana”.