VIOLENCIA SEXUAL DIGITAL
Otro aberrante caso donde se descubre que adolescentes vendían fotos creadas con inteligencia artificial de sus compañeras desnudas
Las mismas chicas se dieron cuenta. Tomaban sus rostros de imágenes que publicaban en las redes sociales. Son siete víctimas, sólo una formalizó la denuncia.
La violencia sexual digital no se detiene. Los padres de un colegio privado de Resistencia, provincia de Chaco, denunciaron que varios alumnos vendían fotos de sus desnudas generadas con inteligencia artificial (IA). Otro de los casos policiales más impactantes de la jornada.
Un grupo de chicas se dieron cuenta que sus propios compañeros de curso habían usado imágenes que ellas habían publicado en sus redes sociales y las alteraron para difundirlas. En las imágenes que producían estaban desnudas.
Las alumnas les preguntaron a los implicados por qué lo hicieron y quiénes tenían las fotos. No les respondieron. Los investigadores creen que los menores habrían vendido las fotos por WhatsApp y Telegram.
Puede interesarte
Serían siete víctimas, aunque solo una de ellas realizó la denuncia formal hasta el momento. Los investigadores sospechan que puede haber otras escuelas involucradas, pero en el caso de la denuncia se trata de chicos que comparten el aula.
Desde el colegio Don Bosco, donde van víctimas y victimarios, señalaron que los primeros en presentarse en la institución fueron los padres de los estudiantes acusados y se pusieron a disposición. Después también se acercaron los padres de las chicas afectadas que solicitaron alguna sanción para los sospechosos.
Desde el establecimiento educativo explicaron que “los hechos sucedieron fuera de la institución y por fuera del horario escolar”.
Desde la Policía de Chaco informaron que el Departamento de Cibercrimen y la División Delitos Tecnológicos trabajan para analizar los pasos de los usuarios que crearon las imágenes y el alcance que tuvieron.