Skip to main content

Hoy vemos con preocupación cómo algunas plataformas de inteligencia artificial se presentan como una especie de “apoyo psicológico”. A primera vista, puede parecer atractivo: respuestas rápidas, palabras de aliento, disponibilidad a toda hora. Sin embargo, esto encierra un peligro mayor: confundir una simulación con un encuentro humano. En mi experiencia clínica, lo que cura no es la respuesta automática, sino la experiencia de diálogo con un otro real, capaz de escuchar, interrogar y mostrarnos algo que no esperábamos.

La inteligencia artificial funciona con patrones y repeticiones. Por eso, tiende a confirmar lo ya sabido, a devolver frases correctas pero previsibles. El inconsciente, en cambio, se manifiesta en lo que sorprende: un lapsus, un silencio, una contradicción. Esa irrupción es lo que abre la posibilidad de cambio. Si entregamos nuestra intimidad a un algoritmo, corremos el riesgo de borrar lo más propio de nosotros mismos: aquello que no entendemos del todo, pero que nos constituye.

Finalmente, hay una cuestión ética de fondo. Convertir la palabra en un “servicio automático” es reducir al ser humano a un consumidor de consejos, negando el lugar de la responsabilidad y del deseo. El trabajo terapéutico requiere un vínculo humano, un espacio donde lo que se dice tenga consecuencias. Una máquina no puede ofrecer eso, porque carece de inconsciente. Por eso, más allá de su utilidad en otras áreas, debemos ser claros: el cuidado de la vida psíquica no se delega a un algoritmo….

Privacy Preference Center