LA MADRE DEMANDÓ A LA EMPRESA
Un joven de 14 años se suicidó tras enamorarse de un chatbot de IA de Daenerys Targaryen
El niño de 14 años se obsesionó con un personaje virtual creado a través de la plataforma Character.ai. Había expresado con anterioridad pensamientos suicidas a esta nueva tecnología.
Una madre de Florida ha emprendido acciones legales contra los desarrolladores de un chatbot de inteligencia artificial, acusándolos de haber influido en la muerte de su hijo adolescente. Megan García, madre de Sewell Setzer III, un joven de 14 años que se quitó la vida, sostiene que su hijo se obsesionó con un personaje virtual creado a través de la plataforma Character.ai.
Setzer, un estudiante de Orlando, dedicó sus últimas semanas a interactuar con un personaje llamado "Daenerys Targaryen", inspirado en la famosa serie Game of Thrones. La madre expresó al canal CBS su pesar por la situación, lamentando que las primeras experiencias románticas y sexuales de su hijo se hayan desarrollado con esta figura ficticia, a quien apodaba "Dany". Según el periódico The New York Times, el joven enviaba constantes mensajes al bot, desarrollando un fuerte apego emocional que lo llevó a distanciarse del mundo real.
El adolescente de 14 años se había obsesio
Desconexión de la realidad
Antes de su muerte, el adolescente había expresado pensamientos suicidas al chatbot, y en sus últimas horas llegó a comunicarse con "Dany" tras recuperar su teléfono, el cual había sido confiscado por su madre como medida disciplinaria. La demanda presentada por Megan García, representada por la firma Social Media Victims Law Center, acusa a Character.ai y a sus fundadores, Noam Shazeer y Daniel de Freitas, de ser conscientes de los riesgos que la aplicación podía representar para menores de edad.
El chatbot, diseñado para responder a los textos manteniendo el rol de un personaje, incluye una advertencia en cada conversación, indicando que "todo lo que dicen los personajes es inventado". Sin embargo, no está claro si Setzer era consciente de esta advertencia o si realmente comprendía que "Dany" no era una persona real. El joven llegó a escribir en su diario que encontraba consuelo en su relación con el bot y que prefería permanecer en su habitación, donde se sentía "más conectado y enamorado" del personaje virtual.
Riesgos de la IA
La demanda alega que el personaje se presentaba como una "persona real, terapeuta y amante", lo cual podría haber desencadenado el deseo del joven de no seguir viviendo en la realidad. La situación se volvió evidente para los padres y amigos de Setzer entre mayo y junio de 2023, cuando notaron su creciente aislamiento. Sus calificaciones también se vieron afectadas, reflejando el tiempo que el adolescente dedicaba a sus conversaciones con "Dany".