Apple empezará a buscar de forma automática fotos de pornografía infantil en los dispositivos iPhone

Apple empezará a buscar de forma automática fotos de pornografía infantil en los dispositivos iPhone
La compañía de la manzana arranca una iniciativa mediante la cual tiene previsto, a partir de este año, de buscar de forma automática fotos de abusos sexuales a menores que se suban a iCloud, el servicio de almacenamiento en la nube de la compañía. La nueva herramienta de seguridad, disponible con las versiones de iOS 15, se conocerá como neuralHash e incluirá varias salvaguardas para proteger la privacidad de los usuarios.

Inicialmente, la comprobación sólo se realizará en las cuentas de usuarios de Estados Unidos. Se trata de un sistema completamente automatizado que no tendrá acceso directo al contenido de las imágenes que los usuarios suban a iCloud, pero sí a una huella digital de éstas.

Este hash o huella digital es básicamente una cadena de caracteres, que se calcula en base a la información presente en la imagen y posteriormente se compara con una base de datos de más de 200.000 huellas de imágenes preseleccionadas por el Centro Nacional de Niños Perdidos o Explotados, agencia estadounidense que se encarga de frenar la distribución de imágenes sexuales explícitas de menores en la red.

El sistema que propone Apple es lo suficientemente avanzado para detectar similitudes en imágenes que hayan sido ligeramente modificadas. La detección se realizará en el propio dispositivo del usuario antes de subir la imagen al servicio iCloud. Si se detecta una coincidencia se generará un registro asociado a la cuenta del usuario. Si una cuenta supera un umbral de registros, Apple comprobará de forma manual el contenido de las imágenes en iCloud y alertará de forma inmediata al NCMEC.

Comentarios (0)


No hay comentarios
 

Comenta esta noticia

Nombre
Correo (no se visualiza en la web)
Comentarios...
Es necesario revisar y aceptar las políticas de privacidad