En los últimos años, el auge de la inteligencia artificial ha impulsado que cada vez más personas recurran a estas herramientas para buscar consejos personales o simplemente sentirse escuchadas. Este fenómeno ha abierto un debate entre especialistas sobre si la IA puede funcionar como sustituto de un profesional de la salud mental.
Alejandro Rodríguez Fuentes, psicoanalista y académico de la Facultad de Ingeniería de la Universidad Nacional Autónoma de México (UNAM), expuso el papel actual de estas tecnologías y sus alcances en el ámbito emocional.
IA y emociones: entre el acompañamiento y sus límites
Actualmente, las herramientas tecnológicas forman parte de la vida cotidiana. Los chatbots, por ejemplo, registran cerca de 700 millones de usuarios semanales, y una proporción relevante los utiliza como apoyo emocional.

Entre la población adulta, 37% ha recurrido a estas plataformas con fines emocionales, mientras que 38% afirma utilizarlas semanalmente para hablar de temas personales.
Leer también: Sheinbaum critica que el diésel alcance los 29.50 pesos y anuncia reunión con gasolineros
En jóvenes, la tendencia es aún más notable. El 13% de adolescentes entre 12 y 17 años usa inteligencia artificial para recibir consejos sobre salud mental, cifra que aumenta a 22% entre quienes tienen de 18 a 21 años. Además, más del 70% de los adolescentes utiliza estas herramientas y más de la mitad busca apoyo emocional en ellas.
Sin embargo, este crecimiento plantea interrogantes. Rodríguez Fuentes subrayó que la inteligencia artificial no trata a un sujeto en el sentido clínico. A diferencia de un proceso terapéutico, estos sistemas operan bajo una lógica de satisfacción del usuario, ofreciendo respuestas inmediatas y adaptadas a sus necesidades, sin confrontación.

Ventajas y riesgos del uso de IA en el bienestar emocional
De acuerdo con el especialista, las personas encuentran alivio emocional, acompañamiento y una reducción de la sensación de soledad al interactuar con estas herramientas. También pueden ser útiles en procesos de psicoeducación, al explicar conceptos como ansiedad o estrés y ayudar a organizar pensamientos, en una dinámica similar a ciertas estrategias de la terapia cognitivo-conductual.
No obstante, también existen riesgos. El uso prolongado puede generar dependencia, aislamiento o retrasar la búsqueda de ayuda profesional. En casos graves, como la depresión severa, la IA no puede sustituir la atención clínica ni intervenir en situaciones de emergencia.
El académico advirtió que estas herramientas pueden reforzar ideas que alimentan el malestar o validar creencias erróneas, además de que algunas personas pueden confundir esta interacción con un proceso terapéutico real.
Finalmente, destacó que la inteligencia artificial no puede reemplazar la alteridad humana ni elementos fundamentales del tratamiento clínico, como la transferencia o la responsabilidad ética del terapeuta. Aunque puede ofrecer alivio, no es capaz de generar una transformación profunda.


