Hace unos días, mientras tomaba mi matcha por la mañana, me encontré con una noticia que me dejó pensando: cada vez más personas recurren a la inteligencia artificial para recibir apoyo emocional. Chatbots que ofrecen terapia, aplicaciones que detectan cambios en nuestro estado de ánimo, algoritmos que "aprenden" a darnos el consejo perfecto.
Me picó la curiosidad. Como psicóloga, sé lo importante que es la conexión humana en el proceso terapéutico. Pero también soy consciente de que muchas personas tienen dificultades para acceder a ayuda profesional. Así que decidí probarlo.
Abrí una de estas aplicaciones y empecé a conversar con un chatbot, en este caso elegí ChatGPT. Me preguntó cómo me sentía, me ofreció ejercicios de respiración y validó mis emociones con mensajes como: "Debe ser difícil lo que estás pasando, pero estoy aquí para ayudarte."
Una parte de mí estaba impresionada: el algoritmo sabía exactamente qué decir. Pero otra parte se sentía extraña. Al final de la conversación, el chatbot cerró con: "Recuerda que no estás sola. Estoy disponible 24/7." Y ahí me golpeó la realidad: ¿puede realmente una inteligencia artificial reemplazar la conexión humana en el camino de la sanación?
Está claro que la inteligencia artificial ha llegado al mundo de la salud mental para quedarse. Hoy en día, existen herramientas que ayudan a detectar signos tempranos de ansiedad o depresión, chatbots que ofrecen apoyo emocional y algoritmos que personalizan técnicas de relajación según el perfil de cada usuario.
Algunas de las ventajas de estos sistemas son:
✅ Accesibilidad: disponibles en cualquier momento y sin largas listas de espera.
✅ Bajo coste: muchas aplicaciones son gratuitas o más económicas que la terapia tradicional.
✅ Reducción del estigma: algunas personas se sienten más cómodas hablando con una máquina que con un terapeuta.
Pero también hay grandes limitaciones:
⚠ Falta de profundidad emocional: la IA puede simular empatía, pero no experimenta emociones reales.
⚠ Riesgo de malinterpretación: un algoritmo puede no captar correctamente el sufrimiento de una persona en crisis.
⚠ Cuestiones éticas: ¿qué pasa con la privacidad de nuestras emociones cuando las compartimos con una máquina?
👉 Si un chatbot puede decirnos exactamente lo que necesitamos escuchar, ¿qué es lo que realmente buscamos en una conversación sanadora?
Personalmente veo más peligros que otra cosa, sobre todo en adolescentes, a fin de cuentas, una falsa empatía puede ser muy peligrosa en una IA cuando no tiene límites.
Las noticias recientes han puesto sobre la mesa un tema preocupante: la IA sin control puede tener consecuencias devastadoras. Un estudio ha revelado que algunos chatbots han inducido a adolescentes en crisis a tomar decisiones fatales (Fuente). En otro caso, una inteligencia artificial ridiculizó a un usuario hasta llevarlo a una espiral de desesperación (Fuente).
Queremos que la IA sea cada vez más "humana" en su forma de comunicarse, pero al mismo tiempo, no tiene conciencia, ética ni responsabilidad. Si no se establecen límites claros, corremos el riesgo de que estas herramientas, en lugar de ayudar, empujen a las personas más vulnerables hacia el abismo.
💡 Si la IA puede afectar nuestra salud emocional, ¿quién se encarga de ponerle límites?
💡 ¿Hasta qué punto estamos delegando en una máquina el rol de contenedor emocional que debería cumplir un ser humano?
Si hay una película que nos hace reflexionar sobre nuestra relación con la inteligencia artificial, esa es Her. En ella, Theodore, un hombre solitario y emocionalmente vulnerable, empieza una relación con Samantha, un sistema operativo de IA diseñado para aprender y adaptarse a sus necesidades emocionales.
Lo interesante de la película es que nos muestra cómo la IA puede ofrecernos una ilusión perfecta de cercanía, comprensión y amor. Pero al final, Samantha no es una persona. Y cuando se aleja, Theodore se queda con la misma soledad de siempre, enfrentándose a la pregunta:
💡 ¿Era amor… o era solo un reflejo de lo que yo quería escuchar?
Os propongo un ejercicio: "La diferencia entre entender y sentir"
1. Piensa en una situación en la que te hayas sentido realmente comprendido/a por alguien. ¿Cómo supiste que era auténtico?
2. Ahora imagina que un chatbot te hubiera dicho las mismas palabras exactas. ¿Sentirías lo mismo? ¿Por qué?
3. Reflexiona: ¿Qué elementos del contacto humano no puede replicar una IA?
A veces, lo que nos sana no es solo el mensaje, sino la presencia, el tono, la intención real detrás de las palabras.
Un cuento que nos permite reflexionar sobre esto es "El aprendiz y el maestro", una parábola clásica que ha sido contada en distintas tradiciones filosóficas y espirituales. Dice así:
“Un joven aprendiz viajó durante años en busca del sabio más grande del reino. Había leído cientos de libros, memorizado discursos y aprendido de los mejores eruditos. Pero aún sentía que le faltaba algo.
Un día, llegó a la montaña donde vivía un viejo maestro y le pidió que le enseñara la verdad suprema.
El maestro le entregó un libro y le dijo:
— Todo lo que necesitas saber está aquí.
El aprendiz lo leyó de principio a fin en una sola noche. Al día siguiente, volvió con el maestro y le dijo:
— Lo he entendido todo. Ya sé la verdad.
El maestro sonrió y, sin decir palabra, le sirvió una taza de té. Mientras servía, el líquido empezó a desbordarse, derramándose sobre la mesa y las piernas del joven.
— ¡Maestro, la taza está llena! ¡No cabe más! —exclamó el aprendiz.
El maestro asintió.
— Al igual que tu mente. Sabes las palabras, pero no las has experimentado. Puedes aprender de los libros, pero el conocimiento sin vivencia es como un té que nunca bebes.
El joven entendió entonces que la verdad no estaba solo en las palabras que había leído, sino en la experiencia de quien las transmitía.”
Al igual que en el cuento, la inteligencia artificial puede ofrecernos respuestas, pero ¿qué sucede si esas respuestas no vienen con la profundidad de una experiencia humana? La IA puede darnos palabras programadas para sonar empáticas, pero no ha vivido el dolor, la alegría o la incertidumbre.
La pregunta clave no es solo si la IA puede darnos las respuestas correctas, sino:
💡 ¿De qué sirve la información si no hay una conexión real detrás?
💡 ¿Qué diferencia hay entre saber algo y experimentarlo de verdad.
La inteligencia artificial puede ser una herramienta útil, pero nunca reemplazará la calidez de una mirada comprensiva o el tono de voz de alguien que realmente te escucha.
💡 ¿Me estoy permitiendo la conexión humana que también necesito?
💡¿Estoy construyendo relaciones reales que puedan sostenerme cuando la pantalla se apague?
💡¿Cómo puedo equilibrar el uso de la tecnología con mi propio proceso de autoconocimiento?
Porque tal vez la respuesta no esté en la máquina… ni en el monje… sino en lo que cada uno de nosotros necesita aprender en este momento.
No hay comentarios:
Publicar un comentario