Apple pondrá en marcha un sistema para revisar las fotos en los iPhones, iPad y su servidor iCloud con el fin de detectar imágenes de abuso infantil en cada país. Al tiempo que crece la preocupación porque esta funcionalidad pueda violar la privacidad de los usuarios.
Un día antes, la empresa confirmó que en Estados Unidos utilizara ese software que revisa las fotos en busca de este tipo de imágenes antes de que se suban desde los iPhones a su servicio de almacenamiento iCloud.
¿Cómo funcionará?
De acuerdo con Financial Times, para este proyecto Apple planea utilizar el sistema neuralMatch, con el cual se escanearán las imágenes.
Además, alertará a un equipo de revisores humanos si se detectan imágenes con pornografía infantil. Para luego contactar a las autoridades para que el material pueda ser verificado.
Para Estados Unidos, NeuralMatch tiene un archivo con 200 mil fotografías sobre abuso sexual infantil. Proporcionadas por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). Una corporación privada que trabaja para reducir la explotación sexual infantil para reducir la explotación sexual infantil.
Cada foto en iCloud recibirá un “vale de seguridad” que señalará si es sospechosa o no. Una vez que un cierto número de fotos se cataloguen como sospechosas, Apple permitirá que todas las imágenes se descifren, precisó el rotativo.
Este sistema permitirá el acceso central al almacenamiento local, más allá de lo que ya también hace la propia Apple actualmente en la nube.
Mas informaciòn
Mientras los grupos de seguridad infantil elogiaron a Apple al sumarse a Facebook, Microsoft y Google en la adopción de tales medidas. Crece la polémica de que la empresa esté indagando en los dispositivos de los usuarios de forma que pueda ser aprovechada por los gobiernos.
En rueda de prensa, Apple dijo que hará planes para expandir el servicio en función de las leyes de cada país donde opera y no pasará los informes de su sistema de comprobación de fotos a las policías si la revisión no encuentra imágenes de abuso infantil.
Los matices de su sistema, como los “vales de seguridad” que pasan del iPhone a los servidores de Apple y que no contienen datos útiles, protegerán a Apple de las presiones de los gobiernos para que identifique material que no sean imágenes de abusos a menores.
Apple cuenta con un proceso de revisión humana que actúa como respaldo contra los abusos del gobierno.


