La Comisión de Seguridad Electrónica advierte que plataformas como YouTube, Apple y Meta no toman medidas eficaces contra la explotación infantil
La Comisión de Seguridad Electrónica de Australia ha señalado que las principales empresas de redes sociales en el mundo continúan “haciendo la vista gorda” ante la presencia de material de abuso sexual infantil en sus plataformas. La organización afirmó que plataformas como YouTube, en particular, no han respondido a las consultas realizadas acerca de este grave problema, lo que genera preocupación en los organismos reguladores.
En un informe reciente, la Comisionada de Seguridad Electrónica, Julie Inman Grant, precisó que YouTube, junto con Apple, no llevan el control adecuado sobre el volumen de denuncias que reciben por contenido de abuso infantil. Además, no pudieron indicar cuánto tiempo tardan en responder a dichas denuncias, lo que evidencia una falta de transparencia y acciones concretas para combatir estos delitos en sus servicios digitales.
El gobierno australiano tomó la decisión la semana pasada de incluir a YouTube en su prohibición pionera a nivel mundial de redes sociales para adolescentes, tras la recomendación de la propia Comisión de Seguridad Electrónica. Esta medida busca restringir el acceso de menores a plataformas que no cumplen con los estándares de protección requeridos, tras la revocación de una exención planeada para el sitio de videos propiedad de Alphabet, Google.
“Cuando estas compañías actúan por su cuenta, no priorizan la protección de los niños, y parecen hacer la vista gorda ante los crímenes que ocurren en sus plataformas”, expresó Julie Inman Grant en un comunicado. La funcionaria añadió que ninguna otra industria orientada al consumidor recibiría una licencia para operar si permitiera crímenes tan atroces contra menores en sus servicios.
Google, por su parte, ha declarado previamente que en sus plataformas no tiene lugar contenido abusivo y que utilizan técnicas estándar de la industria para identificar y eliminar dicho material. Meta, propietaria de Facebook, Instagram y Threads, con más de 3 mil millones de usuarios en todo el mundo, afirma que prohíbe los vídeos explícitos que contienen abuso sexual infantil y que trabaja activamente en la eliminación de contenido ilícito.
La Comisión de Seguridad Electrónica, creada para proteger a los usuarios de internet, ha exigido a empresas como Apple, Discord, Google, Meta, Microsoft, Skype, Snap y WhatsApp que informen sobre las medidas que implementan para abordar la explotación infantil y el material de abuso en Australia. Hasta ahora, el informe revela que existen varias deficiencias en los mecanismos de seguridad y control en estos servicios.
Entre las fallas detectadas, destaca la incapacidad de detectar y prevenir transmisiones en vivo de contenido ilícito o bloquear enlaces a material de abuso infantil. Además, los mecanismos existentes para reportar estos delitos son insuficientes, lo que aumenta el riesgo de que este tipo de contenido siga proliferando en las plataformas digitales.
Asimismo, se señaló que muchas de estas plataformas no están empleando tecnología de “hash-matching” en todos sus servicios para identificar imágenes de abuso sexual infantil mediante comparación con bases de datos especializadas. Google ha declarado que sus medidas en esta materia incluyen el uso de tecnología de hash-matching y de inteligencia artificial para detectar y eliminar contenido ilegal.
El regulador australiano advirtió que algunos proveedores no han realizado mejoras sustanciales para cerrar estas brechas de seguridad, a pesar de las advertencias y recomendaciones previas. En particular, destacó que tanto Apple como YouTube, de Google, no respondieron a las solicitudes de información sobre la cantidad de denuncias recibidas por abuso infantil ni sobre el número de empleados dedicados a tareas de confianza y seguridad en estos ámbitos.
“Ni siquiera respondieron a nuestras preguntas sobre el volumen de reportes de usuarios relacionados con abuso sexual infantil ni sobre los recursos humanos destinados a la protección en sus plataformas”, afirmó Inman Grant. La situación evidencia la necesidad de una mayor responsabilidad y transparencia por parte de estas empresas para garantizar la protección de los menores en línea.
Este informe refuerza la postura de Australia en la lucha contra la explotación infantil en internet, y pone en evidencia la insuficiente acción de las plataformas más grandes del mundo. La protección de los derechos de los niños en el entorno digital continúa siendo un desafío global que requiere medidas más estrictas y una colaboración efectiva entre gobiernos, empresas tecnológicas y organizaciones civiles.