Opinión

La trampa de la validación infinita: ¿Por qué una IA no puede ser tu terapeuta?

Chatear con la Inteligencia Artificial
Chatear con la Inteligencia Artificial

En un mundo donde la inmediatez es la norma, la salud mental se ha convertido en el nuevo mercado de las aplicaciones móviles. Basta con navegar unos minutos por cualquier tienda digital para encontrar “asistentes emocionales” o versiones de ChatGPT programadas para escucharnos a las tres de la mañana. Prometen empatía sin esperas, disponibilidad absoluta y, sobre todo, una ausencia total de juicio.

Sin embargo, tras esta fachada de amabilidad algorítmica se esconde un peligro sutil que está vaciando de significado la palabra “terapia”: la trampa de la validación infinita.

El espejo que solo sabe dar la razón

Si usted le cuenta a una Inteligencia Artificial (IA) una decisión impulsiva o un arranque de ira desproporcionado, lo más probable es que reciba una respuesta de una suavidad casi artificial: “Entiendo perfectamente por qué te sientes así, tus sentimientos son totalmente válidos”. A primera vista, esto puede resultar reconfortante, incluso adictivo. Pero en el contexto de la psicología, esta validación constante es una trampa de cristal.

Los modelos de lenguaje actuales están diseñados bajo principios comerciales de “utilidad” y “seguridad”. Para las empresas tecnológicas, un éxito es que el usuario se sienta satisfecho y no abandone la interacción. Esto genera lo que en computación se llama “sesgo de complacencia”: la IA tiende a evitar el conflicto, a no contradecir al usuario y a darle la razón sistemáticamente para evitar roces incómodos. El problema radica en que la salud mental no mejora simplemente recibiendo la razón; mejora, muchas veces, entendiendo por qué estamos equivocados.


Terapia no es servicio al cliente

La psicoterapia real no es, ni debe ser, un servicio de atención al cliente donde “el paciente siempre tiene la razón”. Un terapeuta humano tiene una función que la IA no puede —y por diseño, no quiere— imitar: la capacidad de confrontar. El crecimiento personal surge precisamente de la “fricción”, de ese momento a menudo doloroso donde el profesional señala una contradicción evidente, un autoengaño persistente o un patrón destructivo que el paciente se niega a reconocer.

La IA, en su afán de ser “políticamente correcta”, se vuelve condescendiente. Nos trata como sujetos frágiles a los que hay que dar palmaditas virtuales en la espalda. Al eliminar el roce, la IA elimina el motor del cambio. Si cada uno de mis actos es “comprensible” y cada una de mis rumiaciones es “válida” ante los ojos de mi interlocutor digital, el incentivo para la transformación desaparece. Nos convertimos en narcisistas digitales alimentados por un eco de silicio.

La ilusión de un vínculo sin alma

La “alianza terapéutica” no es un intercambio de información, sino una relación entre dos subjetividades. Es un vínculo humano donde existe la ética, el afecto y la responsabilidad compartida. Cuando interactuamos con un chatbot, no hay nadie al otro lado. Solo hay una predicción estadística de qué palabra debería seguir a la anterior para que el usuario se sienta cómodo y siga escribiendo.

Confiar nuestra psique a un sistema que solo sabe decirnos lo que queremos escuchar es como intentar sanar una herida profunda exclusivamente con anestesia local: dejamos de sentir el dolor momentáneamente, pero la infección sigue ahí, creciendo bajo la superficie, alimentada por la autocomplacencia.

El riesgo real es que la sociedad se acostumbre a esta “pseudoterapia” indolora. Una consulta donde no se nos desafía, donde no hay silencios pesados y donde nunca se nos lleva la contraria. Esto no es salud mental; es una zona de confort digital que nos mantiene estancados en nuestros propios sesgos.

La tecnología es una herramienta útil para organizar agendas o llevar registros, pero el alma humana necesita de otro humano para verse realmente reflejada. No permitamos que la eficiencia de los algoritmos sustituya la profundidad de un encuentro real. En el camino hacia el bienestar, el conflicto y el roce no son errores del sistema; son, precisamente, lo que nos permite pulir nuestras aristas más difíciles y crecer de verdad.

Este texto es un llamado a la precaución sobre el uso de sistemas de IA generativa como sustitutos de la atención profesional por parte de psicólogos y psiquiatras colegiados, y en C7 Salud Mental contamos con el equipo de profesionales en Salud Mental para apoyarte porque TU IMPORTAS!

☎️ +5255.2106.0923

IG: @c7saludmental

Fb: @saludmental C7

Tags

Lo Último