Apple revisará fotos hechas con sus dispositivos en busca de contenidos pederastas

Redacción

Apple se sube al carro de la vigilancia de contenidos. La compañía de Cupertino ha anunciado que a finales de este año pondrá en marcha en Estados Unidos un sistema que revisará automáticamente las imágenes subidas desde iPhones e iPads en busca de contenidos pederastas (CSAM, child sexual abuse material). Se suma así a lo que ya venía haciendo Google, que también escanea las fotos y vídeos que se suben en su nube (Google Drive) para detectar ese tipo de archivos.

El procedimiento es el siguiente: cada vez que una foto tomada desde un dispositivo Apple se sube a la nube (iCloud), se cruza automáticamente su hash (una especie de matrícula de los archivos comprimidos) con el de una lista de contenidos ya identificados como pedófilos. Si salta una coincidencia, se lanza un aviso a Apple y un empleado revisará los archivos para comprobar si son o no censurables. En caso afirmativo, se suspende la cuenta de Apple del usuario y se avisa a las autoridades.

La compañía sostiene que, mediante este sistema, nunca pone las manos sobre los archivos privados de los usuarios: el proceso se realiza dentro del dispositivo y solo alerta en caso de alarma.

Paralelamente a esta medida, la empresa de la manzana monitorizará con un sistema de machine learning, o aprendizaje automático, las comunicaciones realizadas por menores en su aplicación Messages, poco usada en Europa pero muy popular en Estados Unidos. Si se detecta que se están enviando o recibiendo imágenes con contenidos explícitos se alertará a los padres.

La decisión de Apple ha sentado como un jarro de agua fría a los activistas en defensa de la privacidad digital. El temor de fondo es que, una vez abierta la puerta a la revisión de contenidos privados de los teléfonos para detectar a potenciales criminales, se pueda extender ese escrutinio a otros objetivos bajo argumentos variopintos.

Con información de El País