Crece la preocupación por el impacto de la IA en la salud mental
- 15/11/2025 00:00
Los especialistas advierten que en ningún caso los ‘chatbots’ pueden reemplazar a los profesionales de la salud mental ante las inquietudes emocionales
Las recientes demandas judiciales en Estados Unidos contra la compañía OpenAI – propietaria del chatbot de Inteligencia Artificial (IA) ChatGPT – por los perjucios ocasionados a la salud mental de algunos de sus usuarios, encienden de nuevo las alarmas sobre los efectos del lado negativo de la IA.
Si bien la IA puede ser un recurso para facilitar los procesos laborales y académicos, también puede no ser la mejor solución si lo que realmente se necesita es un acompañamiento emocional que solamente puede brindar un psicólogo o un psiquiatra.
En la actualidad, hay siete demandas contra OpenAI en la jurisdicción estadounidense del estado de California. Cuatro de ellas son de personas que fallecieron por suicidio, mientras que tres alegaron haber sufrido un daño psicológico severo tras sus interacciones con ChatGPT.
Aunado a estos casos, hay múltiples ejemplos registrados en otras latitudes tal como es el caso de un padre de familia belga que falleció por suicidio por el consejo de la aplicación Chai, al manifestar su inquietud sobre el cambio climático.
Otro es el de un adolescente que se enamoró de un personaje de IA basado en la serie Juego de Tronos. Después de que la amante virtual de Character.AI – caracterizada por su parecido a Daenerys Targaryen – le incitara a quitarse la vida para que ambos se encontraran en el momento de la muerte, el joven falleció por suicidio.
La Dra. Vali Maduro de Gateño - quien es especialista en prevención, evaluación y tratamiento de personas en riesgo de suicidio - aseguró a La Estrella de Panamá que hay diversas razones por las cuales haya personas que busquen un acompañamiento emocional en la IA.
Una de ellas está relacionada con la disponibilidad del ‘chatbot’, que se puede consultar las 24 horas del día, los siete días a la semana.
“ChatGPT les da respuestas inmediatas. En terapia lo que hacemos es abrir un espacio para explorar, reflexionar y entender, y para muchas personas eso es un proceso de mucho trabajo. Lo que quieran solamente es la solución a su inquietud. Otras personas buscan el ‘chatbot’ por el anonimato: puede que sientan vergüenza de lo que están experimentando, o miedo de ser juzgados y/o invalidados. Así mismo, también hay casos de otras personas quienes todavía sienten mucho el prejuicio y el estigma de los temas de salud mental y no quieren compartirlo con nadie”, añadió Maduro de Gateño.
En este sentido, la psicóloga advirtió que aquellos que se encuentran en riesgo de quitarse la vida, deciden recurrir a los ‘chatbots’ para no compartir su deseo de morir por suicidio, ya sea para que no los detengan o bien para no sentir que les están causando más problemas a sus seres queridos.
Por otro lado, Maduro de Gateño reiteró la necesidad de que la sociedad esté consciente que un ‘chatbot’ de IA no tiene la capacidad de evaluar a cada individuo en su situación específica, y no puede abrir un espacio de intercambio que ayude a la persona a reflexionar, procesar y entender lo que le está sucediendo. Algo que sí puede hacer un profesional de la salud mental.
Además, ChatGPT u otras aplicaciones similares de IA tampoco pueden lidiar con las complejidades de cada situación emocional, sino que están programadas para buscar y resumir información a nivel general.
“Es decir, no va a la necesidad del individuo en ese momento y con esas características. Tampoco tiene la capacidad de hacer un diagnóstico exhaustivo del caso”, resaltó la psicóloga.
Maduro de Gateño también advirtió del algoritmo con el que están programados los ‘chatbots’ de IA, que está formateado para responder afirmativamente lo que diga el usuario, incluso lo que se podría entender como las ideas suicidas. La especialista no obstante puso en valor que ya se están tomando medidas para que estos sistemas refieran las inquietudes emocionales a los servicios de salud mental.
El experto en tecnología Alex Neuman consideró por su parte que los principales peligros de usar la IA como acompañante se manifiestan en la dependencia emocional, el aislamiento social, la pérdida de habilidades sociales, la ilusión de compañía y la falta de crecimiento personal auténtico.
“Las personas pueden empezar a buscar consuelo y apoyo únicamente en la IA, relegando las relaciones humanas y reduciendo su autonomía emocional. Al sustituir las interacciones humanas por conversaciones con IA, las personas pueden volverse más aisladas. Esto puede llevar a una disminución en la calidad de las relaciones personales y a una sensación de soledad encubierta, ya que la IA no puede ofrecer reciprocidad emocional genuina”, apuntó.
Neuman consideró por su parte que los padres de familia deben estar pendientes de lo que sus hijos hacen tanto con la IA como con el internet, en general.
“La vigilancia no debe limitarse solo a instalar controles parentales, también es fundamental acompañar, abrir el diálogo y educar a los hijos sobre los riesgos y el uso responsable de las tecnologías basadas en IA. Es por eso que deberían haber conversaciones frecuentes sobre los límites, el tipo de contenido apropiado, y la importancia de la privacidad, ayudando así a crear conciencia y a fomentar conductas seguras”, aconsejó el especialista.
El experto en tecnología aseguró, en tanto, que las compañías propietarias de los ‘chatbots’ de IA deberían adoptar una serie de medidas éticas, técnicas y sociales para asegurar el uso sano de sus productos que protejan la privacidad de sus usuarios, especialmente los menores de edad. También, según Neuman, estos ‘chatbots’ deberían ser regulados con sistemas de verificación de edad y establecer canales de denuncia ante situaciones inapropiadas.