Familia responsabiliza a Roblox y Discord por no proteger a su hijo del ciberacoso

Un matrimonio en Estados Unidos presentó una demanda contra Roblox y Discord tras el suicidio de su hijo Ethan, de 15 años, argumentando que las plataformas no protegieron al adolescente de un acosador. Según The New York Times, el joven, diagnosticado con autismo, fue contactado en Roblox por un adulto que se hizo pasar por un menor llamado Nate, y posteriormente trasladó las interacciones a Discord, donde exigió imágenes explícitas y lo amenazó con divulgar información sensible.

El acoso derivó en un grave deterioro emocional, culminando en el suicidio de Ethan en 2024. Las autoridades de Florida indicaron que el adulto implicado había sido arrestado en 2021 por posesión de pornografía infantil y transmisión de material nocivo a menores.

Los padres responsabilizan a Roblox y Discord de negligencia, fraude y encubrimiento, alegando que no implementaron medidas básicas de seguridad, como verificación de edad efectiva ni monitoreo de interacciones riesgosas.

Roblox declaró estar “profundamente entristecida” y aseguró estar mejorando sus herramientas de seguridad y moderación. Discord afirmó estar comprometida con la protección de los usuarios, utilizando “tecnología avanzada y equipos capacitados” para eliminar contenido que viole sus políticas.