Una familia estadounidense presentó una denuncia legal contra las plataformas digitales Roblox y Discord, alegando responsabilidad en el fallecimiento de su hijo adolescente de 15 años. El joven habría terminado su vida en abril de 2024 tras interacciones con un individuo que fingía ser un menor en el entorno virtual.
Plataforma de juegos y su entorno de riesgo
Roblox, reconocida por combinar elementos de juego y creación de videojuegos, permite la interacción entre usuarios mediante avatares y sistemas de comunicación integrados. Esta característica, según los denunciantes, facilitó el contacto entre el adolescente y un adulto que se hacía pasar por un joven de 13 años.
Detalles del caso
Ethan, nombre del menor fallecido, utilizaba la plataforma desde 2015. Durante su trayectoria en Roblox, entabló contacto con un usuario identificado como Nate, quien posteriormente fue identificado como Timothy, un adulto de 37 años con antecedentes penales por posesión de material pedopornográfico desde 2021.
Según el relato de los padres, Timothy logró que el adolescente desactivara las protecciones parentales, promoviendo conversaciones de índole sexual que terminaron en intercambio de imágenes íntimas. Estos hechos generaron alteraciones emocionales en el menor que derivaron en su internación en un centro especializado durante 12 meses.
Reacciones institucionales
La madre del adolescente presentó formalmente una acción legal por fallecimiento derivado de negligencia ante el Tribunal Superior del Condado de San Francisco. La denuncia específicamente señala fallas en los sistemas de protección de ambas plataformas que, según afirma, permiten el accionar de individuos con intenciones delictivas.
“Estamos profundamente entristecidos por esta pérdida trágica e inimaginable”, fue el comunicado oficial de Roblox
, indicando que implementan mejoras en sus protocolos de seguridad y colaboran con organismos especializados.
Por su parte, la plataforma Discord expresó su compromiso con la seguridad en sus espacios digitales, destacando el uso de tecnología avanzada y equipos especializados para detectar y eliminar contenido prohibido.
Medidas preventivas anunciadas
Como respuesta a estos hechos, Roblox anunció durante el invierno pasado un conjunto de estrategias para limitar la exposición de menores a contenidos inadecuados, incluyendo un sistema de verificación de edad para el acceso a funciones de comunicación.