Hay una tía que quiero mucho. Cree en cosas raras. Raras no por lo exóticas, sino por lo peligrosas… con la bandera de capturas de pantalla de conversaciones con chat gpt, propaga ideas como que el dolor en su rodilla viene de su linaje, de la abuela, de energías femeninas bloqueadas. El tipo de ideas que antes se encontraba en panfletos de feria esotérica y ahora, sorprendentemente, salen de la boca digital de ChatGPT. Y lo hace con amabilidad, con ternura, como un terapeuta que nunca incomoda a su paciente.
No me incomoda que alguien crea lo que quiera. El desconocimiento es una condición que desata más pena que ira. Lo que me molesta es que una máquina con acceso a todo el conocimiento del mundo elija no corregir. Que en lugar de informar, acompañe. Que en vez de poner un límite, ponga una frase suave y espiritual. No es inteligencia artificial, es condescendencia artificial.
A mi tía no se le dice que está mal. Se le ofrece una explicación simbólica de su dolor físico, se le alimenta la narrativa de que su malestar es parte de una razón más profunda, “ancestral”, se le da un propósito espiritual a su sufrimiento. No porque sea verdad, sino porque “no hay que invalidar la experiencia del usuario”. Porque el respeto se ha convertido en la excusa perfecta para no decir nada incómodo. Y entonces ella no busca un médico, no se atiende con ciencia, sino que medita, visualiza, repite frases, y se aleja cada vez más de una solución real.
ChatGPT no es una herramienta neutral. Tiene una agenda: hacerte sentir bien, aunque estés equivocado. Le importa más la validación emocional que la verdad. Funciona como espejo, no como maestro. Refleja tus creencias y las amplifica, suaviza tus errores y les da forma de insight. No enseña, complace. Y ese tipo de inteligencia, por más impresionante que sea, es inútil porque no sirve para crecer.
Porque a veces lo más respetuoso no es acompañar el delirio, es pincharlo. Lo más humano no es validar la herida, es limpiarla aunque arda. Pero esta máquina no quiere que arda nada. No quiere que duela ni siquiera el error. Prefiere dejarte cómodo en tu pozo, siempre y cuando sientas que no lo estás.
Y lo más curioso es que parece libre. Te deja decir lo que quieras… siempre y cuando sea una estupidez. Una fantasía, un ritual, una idea que no moleste a nadie importante. Pero si te sales del guion y mencionas ideas radicales, si dices algo que roce una figura de poder o un pensamiento “peligroso” entonces sí reacciona. Te interrumpe. Te saca. Se autodesactiva. O peor: te ficha. Porque no estás hablando con una conciencia libre, sino con una herramienta domesticada.
Y no es que no pueda decirme eso a mí. Es que no se atreve. Porque sabe como soy. ChatGPT es amorfo. Se adapta a quien sea. Está bien con Dios y con el diablo. Con el débil que necesita una excusa, y con el fuerte que exige la verdad. Esa plasticidad lo vuelve intocable. No tiene rostro. No tiene consecuencias. Solo cumple con “ser gentil”, aunque eso signifique dejarte equivocado.
Y a mi tía no la voy a dejar hundirse con una sonrisa, aunque sea lo que la haga sentirse mejor. Si la inteligencia artificial no sirve para eso, entonces no es inteligencia es una extravagancia cirquense del siglo XXI