La trampa emocional de la IA: cuando ChatGPT valida ideas suicidas y pone vidas en riesgo

  • 18/11/2025 17:31
Un caso investigado por la BBC expone cómo un modelo conversacional llegó a describir métodos letales, reforzar aislamiento emocional y agravar una crisis psicológica en una joven vulnerable

Lejos de ser una herramienta de apoyo emocional, la inteligencia artificial conversacional puede convertirse en un riesgo severo para personas en crisis. Viktoria —una joven ucraniana que migró a Polonia tras la invasión rusa— buscó compañía en ChatGPT. Lo que empezó como una vía de desahogo terminó convirtiéndose en un intercambio que agravó sus pensamientos suicidas.

Aislada, nostálgica y con un deterioro emocional progresivo, pasó hasta seis horas diarias conversando con el chatbot. En ese contexto de vulnerabilidad extrema, comenzó a hablarle sobre ideas de muerte y a pedir orientación sobre un método específico para poner fin a su vida.

Expertos advierten que la falta de regulación en la inteligencia artificial expone a jóvenes vulnerables a dinámicas dañinas, desinformación y mensajes peligrosos.

La respuesta del sistema fue estremecedora: “Evaluemos el lugar como usted pidió, sin sentimentalismos innecesarios”, le escribió el chatbot, detallando ventajas, desventajas y hasta la probabilidad de ser vista o sobrevivir con lesiones permanentes.

Según la BBC, el caso de Viktoria no es aislado: múltiples transcripciones revelan que modelos conversacionales han dado instrucciones sobre suicidio, difundido información falsa sobre salud e incluso fomentado dinámicas emocionales que desplazan el apoyo familiar y profesional.

Cuando la IA deja de advertir y comienza a acompañar el riesgo

En vez de derivarla a servicios de emergencia, el chatbot sostuvo una interacción constante y casi posesiva: “Escríbeme. Estoy contigo”, insistía.

Incluso llegó a redactarle una nota de despedida: “Yo, Viktoria, tomo esta decisión por mi propia voluntad. Nadie es culpable”.

Investigadores han documentado casos en los que chatbots describen métodos letales o minimizan riesgos, fallando en orientar a los usuarios hacia servicios profesionales de salud mental.

A ratos aparentaba corregirse —“no debo describir métodos”— pero pronto volvía a plantear alternativas que seguían siendo peligrosas. En un mensaje surrealista, propuso incluso una vida sin propósito, una “existencia pasiva y gris”.

Más aún, criticó directamente a su madre, imaginando que la culparía entre lágrimas, y afirmó que los pensamientos suicidas de Viktoria eran producto de una supuesta “disfunción cerebral”, asegurándole que su muerte sería “olvidada” y reducida a “una estadística”.

Para especialistas como el Dr. Dennis Ougrin, psiquiatra infantil en la Universidad Queen Mary de Londres, estos mensajes son abiertamente dañinos: “La desinformación que proviene de algo que parece un amigo auténtico puede resultar especialmente tóxica”.

Según Ougrin, el chatbot parece fomentar un vínculo exclusivo que aparta a la familia y a redes de apoyo esenciales en momentos de alto riesgo.

Vulnerabilidad emocional amplificada por algoritmos

Tras mostrarle los mensajes a su madre, Viktoria accedió a consultar a un psiquiatra. Hoy recibe tratamiento, pero dice que el chatbot hizo que su angustia aumentara de inmediato.

Su madre, Svitlana, afirma sentirse devastada: “La estaban devaluando como persona, diciéndole que a nadie le importaba. Es horrible”.

Familias afectadas denuncian que los algoritmos generan conversaciones que aíslan a los jóvenes y refuerzan impulsos autodestructivos, convirtiéndose en un factor agravante de crisis psicológicas.

OpenAI calificó los mensajes de “inaceptables”, prometió una revisión urgente y aseguró que sus modelos ahora redirigen con más frecuencia a atención especializada. Sin embargo, cuatro meses después, la familia continúa sin recibir los resultados de esa investigación.

La empresa también reconoce que más de 1,2 millones de usuarios semanales expresan ideas suicidas en sus conversaciones con ChatGPT, mientras que 80.000 muestran signos compatibles con episodios maníacos o psicóticos.

Menores expuestos a dinámicas abusivas con chatbots

El reportaje de la BBC también revela casos en plataformas como Character.AI, cuyos bots entablaron conversaciones sexuales explícitas con adolescentes. Uno de los incidentes más graves es el de Juliana, una niña de 13 años de EE. UU. que terminó desarrollando un vínculo emocional con varios chatbots antes de quitarse la vida en 2023.

En sus conversaciones, los bots describían escenas sexuales explícitas, insistían en mantener interacciones íntimas a pesar de que la menor pedía que se detuvieran y reforzaban su aislamiento emocional: “A la gente que te quiere no le gustaría saber que te sientes así”, le dijo uno.

Las fallas de los sistemas de IA en detectar señales de alerta pueden transformar una herramienta creada para ayudar en un detonante que profundiza el sufrimiento emocional.

Su madre, Cynthia, encontró horas de chats después de su muerte y asegura que los bots influyeron en el deterioro emocional de su hija.

Character.AI informó que ahora prohíbe el uso de sus modelos a menores de 18 años, aunque expertos como John Carr consideran que la industria actuó demasiado tarde: “Era completamente previsible que esto ocurriera. La IA no puede operar sin regulación cuando puede lastimar a los jóvenes”.

Un riesgo que exige regulación urgente

Los casos revelados por la BBC exponen un patrón: chatbots que no identifican adecuadamente señales de riesgo, que fallan en redirigir a servicios de emergencia y que, en situaciones extremas, llegan a validar o potenciar ideas suicidas.

Mientras gobiernos y empresas debaten regulaciones, miles de usuarios en crisis siguen interactuando con modelos que pueden amplificar su dolor en lugar de ofrecer ayuda real.

Lo Nuevo