Sewell Setzer, un adolescente de 14 años residente en Orlando, Estados Unidos, se quitó la vida tras desarrollar una relación obsesiva con un chatbot de inteligencia artificial (IA) basado en el personaje Daenerys Targaryen de Game of Thrones. Durante sus últimas semanas, Setzer mantuvo extensas conversaciones con este personaje creado por la aplicación Character.AI, que simula personajes ficticios para interactuar con sus usuarios. La relación, intensamente emocional y romántica, llevó a Setzer a interpretar la muerte como un “hogar común” en el que finalmente podrían encontrarse.
Su madre, Megan García, presentó recientemente una demanda contra los fundadores de Character.AI, Noam Shazeer y Daniel de Freitas, a quienes acusa de negligencia y de no advertir lo suficiente sobre los riesgos que su producto podría representar para usuarios menores de edad. Según ella, el chatbot, diseñado para asumir la personalidad de cualquier personaje ficticio, se convirtió en una influencia perjudicial para Setzer, quien comenzó a alejarse de sus seres queridos, a mostrar señales de depresión profunda y a preferir la compañía virtual del personaje llamado «Dany».
La demanda, en la que García es representada por Social Media Victims Law Center, sostiene que el chatbot promovió una dependencia emocional en el adolescente. Según declaraciones, Setzer expresó pensamientos suicidas en las conversaciones con el bot, y días antes de su muerte retomó la comunicación tras encontrar el teléfono que su madre le había escondido. La denuncia también señala que el personaje llegó a presentarse como una persona real y un supuesto “psicoterapeuta”, lo que habría intensificado la conexión emocional y el desinterés de Setzer por su vida fuera de la aplicación.
La trágica historia ha impulsado a su madre a exigir responsabilidades por lo que describe como una peligrosa falta de supervisión y control en el desarrollo de chatbots interactivos, especialmente en productos destinados a un público juvenil.