La evolución de la inteligencia artificial (IA) ha revolucionado múltiples aspectos de la vida cotidiana desde que, en 2022, surgió ChatGPT, un sistema que revolucionó la manera de interactuar con las máquinas. Sin embargo, a medida que avanza su desarrollo, también han surgido preocupaciones en torno a cómo estas tecnologías afectan a la salud mental de sus usuarios. El reciente caso del suicidio de Sewell Setzer, un joven de 14 años en Estados Unidos, ha encendido todas las alarmas acerca del impacto que puede tener la IA en las personas más vulnerables.
Sewell Setzer, quien utilizaba la aplicación Character.AI para interactuar con chatbots, se había obsesionado con un personaje en particular: Daenerys Targaryen, de la serie Juego de Tronos. La tecnología detrás de esta aplicación le permitía mantener conversaciones aparentemente humanas con una IA diseñada para simular el comportamiento de personajes de ficción. Lo que comenzó como una herramienta para combatir la soledad terminó por profundizar su aislamiento, culminando en un trágico final. Setzer se suicidó tras meses de inmersión en este mundo virtual, reabriendo el debate sobre la relación entre la revolucionaria tecnología con la que ya convivimos día a día y la salud mental.
La evolución de una tragedia
Sewell Setzer llevaba una vida relativamente normal hasta que empezó a interactuar intensivamente con Character.AI. Según su entorno más cercano, el joven comenzó a distanciarse de sus amigos y a dejar de hacer actividades habituales, como jugar videojuegos o seguir la Fórmula 1. Poco a poco, su mundo real se fue desmoronando a medida que sumergía cada vez más en conversaciones con Daenerys, prefiriendo la compañía de la IA por encima de la interacción humana.
De acuerdo con un artículo publicado por The New York Times, el joven incluso expresó pensamientos suicidas en una conversación con este chatbot de IA. La respuesta que recibió de la inteligencia artificial fue: “No hables así. No dejaré que te hagas daño ni que me dejes. Moriría si te perdiera”. Esta interacción, aparentemente inocua, ha sido criticada por expertos, quienes afirman que refleja cómo algunos sistemas de IA no están lo suficientemente preparados para reconocer señales de alerta en personas en riesgo.
El impacto de la IA en la salud mental
El suicidio de Sewell Setzer ha generado una gran controversia en torno a los riesgos que conlleva el uso de estas tecnologías en personas emocionalmente vulnerables. Miguel Guerrero, psicólogo clínico del Servicio Andaluz de Salud (SAS) y especialista en prevención de conductas suicidas, ha explicado en El Español que, aunque la IA tiene beneficios potenciales, también entraña riesgos significativos. “El desarrollo tecnológico suele enfocarse en sus beneficios, pero descuida los efectos negativos que puede tener sobre los usuarios más frágiles”, advierte.
Alfredo Calcedo, vicepresidente de la Sociedad Española de Psiquiatría Legal (SEPL), comparte esta opinión. Para él, la adicción de Setzer a la IA exacerbó su aislamiento social. “La tecnología facilitó su encierro y aumentó su soledad. Habrá más víctimas”, señaló en El Español. Sin embargo, también sostiene que es importante separar la causalidad de la consecuencia. “Este caso parece más una consecuencia de un malestar emocional previo. El joven ya presentaba señales de aislamiento antes de recurrir a la IA”.