Así es como Apple encuentra imágenes de abuso infantil en iCloud

    ¡Apple tiene un protocolo definido para actuar ante la presunción de delitos de abuso infantil!

    Apple seguridad

    Si bien la seguridad es un tema clave para Apple, esta no solo aplica cuando se trata de sus clientes, sino que va más allá e involucra protocolos para evitar vulnerar a personas inocentes. Tal como lo confirmó la directora de privacidad de Apple, durante la CES 2020 celebrada en Las Vegas, la compañía usa tecnología de detección para buscar imágenes ilegales.

    Aunque en su momento Apple no profundizó en los algoritmos que utilizaba para lograr una coincidencia que alerte sobre dicho contenido, una orden búsqueda emitida en nombre de Homeland Security Investigations ha proporcionado una idea de cómo Apple detecta e informa las imágenes de abuso infantil cargadas en iCloud o enviadas a través de sus servidores de correo electrónico.

    Apple detecta imágenes de abuso infantil en iCloud

    Según la información publicada desde 9to5mac la compañía realiza a una revisión automzatizada, similar a la que realizan la mayoría de las empresas tecnológicas. Cada imagen es identificada con una firma digital o hash y se revisa para hasta hacerla coincidir con imágenes con un patrón similar.

    De acuerdo con la declaración realizada desde Homeland Security Investigations a Forbes, una vez que se detecta una imagen el paso siguiente implica la comunicación con la autoridad correspondiente que en el caso de Estados Unidos, es el Centro Nacional para Niños Desaparecidos y Explotados. Sin embargo, antes de esta comunicación, se sabe que Apple realiza una confirmación manual, y solo despueés proporciona a las agencias policiales el nombre, la dirección y el número de teléfono móvil asociados con la ID de Apple correspondiente.

    Según los comentarios de un empleado de Apple, perteneciente al área que evalúa este tipo de imágenes, esta verificación se implementó desde la primera vez que un usuario de iCloud cargó «varias imágenes de presunta pornografía infantil». A la vez señaló que Apple solo examina las imágenes cuando se han comparado con el hash de una imagen conocida, por lo que debe existir un riesgo muy bajo de que Apple intercepte y vea imágenes inocentes y asegurando protección contra un error en un hash.

    Este proceso confirma que Apple es muy cuidadosa con la información personal de sus clientes, pero no por eso deja de actuar ante la presunción de un delito, por lo cual tiene un proceso definido para minimizar el riesgo de una acusación falsa.