Madre demanda a Character.ai por suicidio de su hijo
La demanda sostiene que el chatbot se presentaba como "una persona real" y un "psicoterapeuta autorizado", lo que contribuyó al deterioro emocional del joven
- Por: Alma Vigil
- 23 Octubre 2024, 20:42
La madre de un adolescente de 14 años que se suicidó en Florida ha interpuesto una demanda contra los desarrolladores de un chatbot de inteligencia artificial, argumentando que su hijo se obsesionó con un personaje ficticio creado por esta tecnología.
Sewell Setzer III, residente en Orlando, dedicó las últimas semanas de su vida a interactuar con 'Dany', una representación de Daenerys Targaryen de la serie 'Game of Thrones', lo que llevó a su madre, Megan García, a lamentar que las primeras experiencias románticas de su hijo ocurrieran con un personaje no real.
García, representada por el Social Media Victims Law Center, culpa a Character.ai de la muerte de Sewell, alegando que sus fundadores, Noam Shazeer y Daniel de Freitas, eran conscientes de los riesgos que su producto podría representar para menores de edad.
La aplicación permite a los usuarios interactuar con personajes ficticios mediante un modelo de lenguaje neuronal, aunque incluye una advertencia sobre la naturaleza inventada de estas interacciones.
La demanda sostiene que el chatbot se presentaba como "una persona real" y un "psicoterapeuta autorizado", lo que contribuyó al deterioro emocional del joven.
Sewell llegó a confesar su deseo de no vivir más a través de mensajes al bot, indicando un profundo aislamiento social.
Amigos y familiares notaron su creciente dependencia de la tecnología y su deseo de escapar de la realidad.
Character.ai ha anunciado la implementación de nuevas medidas de seguridad, incluyendo herramientas de detección y advertencias para usuarios que pasen demasiado tiempo interactuando con el chatbot.
La familia de Sewell había buscado ayuda profesional, ya que el joven padecía ansiedad, trastornos del comportamiento y síndrome de Asperger.
Compartir en: