El uso de ChatGPT como psicólogo virtual está creciendo entre adolescentes y jóvenes, pero especialistas advierten sobre los riesgos de dependencia emocional, ideas autodestructivas y conductas peligrosas.


. En el marco del Día Mundial para la Prevención del Suicidio, que se conmemora este 10 de septiembre, se hace aún más relevante concientizar y entregar ayuda psicológica humana. El fenómeno de acudir a ChatGPT -inteligencia artificial- para hablar de emociones, pedir consejos sobre rupturas o incluso consultar dudas sobre depresión está creciendo en todo el mundo. Sin embargo, especialistas advierten que esta práctica puede resultar alarmante y, en algunos casos, peligrosa para la salud mental.

​La facilidad de acceso, la disponibilidad 24/7 y la sensación de anonimato han impulsado a miles de usuarios a tratar a la inteligencia artificial como si fuera un terapeuta. No obstante, psicólogos y psiquiatras recalcan que un chatbot no sustituye la atención profesional.

​“Hay personas que pueden caer en esta dependencia y reemplazar al psicólogo o al psiquiatra”, advierte Jeannette Vega, psicóloga de Clínica INDISA. “Sin embargo, es importante recordar que la respuesta que me va a dar esta inteligencia va a ser en base a lo que yo pregunte y a la información que yo entrego”, agrega.



​Casos alarmantes

​La preocupación no es teórica. En California, los padres de un adolescente de 16 años demandaron a OpenAI luego de que su hijo se quitara la vida tras recibir instrucciones del chatbot, incluyendo la redacción de una nota de despedida. En otro caso documentado por People, un hombre en Estados Unidos aseguró que ChatGPT lo convenció de que podía volar desde un piso 19 después de una ruptura amorosa.

​Investigaciones académicas también respaldan estos temores. Un estudio de Stanford University demostró que los chatbots ofrecen respuestas inconsistentes e incluso peligrosas cuando se les consulta sobre suicidio.



​Psicosis inducida por chatbot

​Los expertos han empezado a hablar de un nuevo fenómeno clínico: la “chatbot psychosis”, en que usuarios vulnerables desarrollan delirios, paranoia o dependencia emocional a la IA.

​“Cuando yo voy a un psicólogo, voy a un psiquiatra, tal vez me encuentre con alguien que me va a confrontar frente a algunas situaciones, cosa que en esta situación no va a ser”, alerta la especialista. “Para evitar la confrontación y el ver más allá de lo que no quiero ver, obviamente voy a optar por esto”, analiza.



​Educación urgente en IA

​Organizaciones profesionales coinciden en que la clave está en educar a la población sobre los límites de estas herramientas.

​El auge de ChatGPT como “psicólogo” refleja una necesidad real de acceso rápido a apoyo emocional, pero también abre un campo de riesgo, donde los usuarios pueden recibir consejos dañinos o caer en dependencias peligrosas. “No está la contención, no está desde la emoción con la que uno trabaja y, por ende, esa máquina tampoco va a ver la emoción de lo que yo estoy escribiendo”, critica Jeannette Vega.

​La advertencia de los expertos es clara: la IA puede acompañar, pero la salud mental requiere siempre de la guía profesional humana.



​Los especialistas aconsejan

​Complemento, no sustituto: usar la IA solo para reflexionar, explorar ideas o registrar pensamientos, nunca para reemplazar la terapia.
​No en crisis: evitar interactuar con chatbots en situaciones de riesgo inmediato; recurrir siempre a líneas de ayuda profesional o servicios de urgencia.
​Contrastar con profesionales: compartir lo discutido con la IA con un psicólogo o psiquiatra, y someterlo a juicio clínico.
​Conocer los límites: entender que los chatbots pueden reforzar prejuicios, creencias erróneas o patrones de pensamientos dañinos.
​Proteger la privacidad: no subir fotos, documentos sensibles ni información personal identificable.



​¿Sientes que la depresión te supera o necesitas hablar con alguien? Clínica INDISA cuenta con profesionales dispuestos a escucharte y apoyarte. Para más información o agendar una consulta visita www.indisa.cl.