Los sobrevivientes australianos de ataques sexuales a niños se ven obligados a buscar personalmente en la web imágenes de su abuso y pedir a las grandes tecnológicas que las eliminen.
Las empresas de tecnología no tienen la obligación de buscar el material, solo de eliminarlo, lo que deja a las víctimas en un dilema terrible.
El profesor asociado Michael Salter de la UNSW ha ayudado a los sobrevivientes de abusos australianos a realizar las búsquedas sombrías.
“Lo que significa es que las víctimas y los sobrevivientes cuyo contenido circula en línea están en una posición en la que la única forma de tratar de frenar la propagación de su material es ir a buscarlo”, dijo el profesor Salter.
“Tenemos una cohorte de víctimas y sobrevivientes, tanto niños como adultos en Australia y en el extranjero, que pasarán tiempo todos los días tratando de encontrar su propio contenido ilegal, informarlo al webmaster o al administrador y ver cómo se elimina. Si no hacen eso, nadie lo hace por ellos, eso está sucediendo en Australia al 100 por ciento”.
El profesor Salter dijo que las empresas de tecnología deberían hacerse cargo del problema y detectar y eliminar de manera proactiva el material conocido de abuso sexual infantil (CSEM), utilizando software recientemente disponible.
Dijo que «no era raro» que los pedófilos enviaran juguetes sexuales por correo a los sobrevivientes de abuso: una mujer en los EE. UU. se vio obligada a mudarse de casa tres veces mientras los pedófilos continuaban localizándola.
El profesor Salter le dijo a News Corp que los gobiernos y el sector privado habían tolerado los crecientes niveles de material de abuso sexual infantil en línea, lo que ha resultado en que pocos australianos superen la adolescencia sin algún tipo de daño en línea.
ESCUCHA EL PODCAST DEPREDADOR
“Creo que simplemente se llegó a un punto en el que tanto los gobiernos como la industria no tienen más remedio que actuar. Ciertamente han sido los últimos dos años que hemos visto un cambio radical allí”.
Pero advirtió que la industria tecnológica no se rendiría fácilmente y que el cambio sería costoso.
La comisionada de seguridad electrónica, Julie Inman Grant, dijo en agosto que seguridad electrónica envió los primeros avisos legales emitidos bajo las nuevas expectativas básicas de seguridad en línea de Australia a Apple, Meta (Facebook e Instagram), WhatsApp, Microsoft, Skype, Snap y Omegle, exigiéndoles que respondan preguntas detalladas sobre cómo estaban abordando la explotación sexual infantil, incluidas las imágenes de abuso.
Estos avisos, los primeros de su tipo en el mundo, señalan lo que las empresas de tecnología están haciendo y lo que no están haciendo para proteger a los niños y a los sobrevivientes de abuso.
“Los resultados revelan una serie de deficiencias, incluido el uso inadecuado e inconsistente de la tecnología para detectar material de abuso infantil, transmisión en vivo y preparación, así como tiempos de respuesta lentos cuando los usuarios marcan este material”, dijo la Sra. Inman Grant.
“La presencia continua de este material en plataformas operadas por algunas de las compañías de tecnología más grandes del mundo no solo es moralmente repugnante, sino que también es profundamente dañino, incluso para los sobrevivientes que se ven obligados a buscar la eliminación y luego esperar a que las plataformas actúen”, dijo.
“Es exactamente por eso que eSafety trabaja tan duro para eliminar el material tan pronto como se nos informa a través de esafey.gov.au, para evitar que los sobrevivientes vuelvan a traumatizarse por su abuso sexual compartido entre pedófilos y perpetuado en Internet”.
En los últimos 12 meses, eSafety completó más de 16 000 investigaciones sobre material de explotación sexual infantil, el 99 % del cual se remitió a la red internacional INHOPE para una acción de remoción rápida.
“Mientras algunas empresas están haciendo un esfuerzo para abordar estos problemas, otras están haciendo muy poco. Se necesita una mejor detección por parte de las plataformas, junto con mejores tiempos de respuesta y una eliminación más rápida. Los mecanismos dentro de las plataformas para denunciar abusos en línea deben ser fáciles de encontrar y usar”, dijo.
Apple dijo en el informe histórico de eSafety que continuarían invirtiendo en tecnologías que protegen a los niños, sin dar detalles, mientras que Meta dijo que había «aumentado los esfuerzos para detectar y eliminar redes que violan sus políticas de explotación infantil» y señaló que el trabajo es similar a su » esfuerzos contra el comportamiento inauténtico coordinado y las organizaciones peligrosas”.
WhatsApp dijo que los usuarios no pueden buscar personas o grupos no conectados sin un número de teléfono, y se envió una notificación si alguien fuera de su red enviaba un mensaje.
Microsoft informó que no tiene herramientas automatizadas específicas para detectar nuevo material CSEA y no revisa todo el contenido en Teams y Outlook después de detectar contenido dañino.
Skype también dijo que no revisa todo el contenido del usuario cuando se detecta CSEA.
Para obtener más detalles sobre el podcast Predatory, vaya a depredador.com.au
Si tiene una historia que contar, envíenos un correo electrónico a [email protected]