El gigante informático Apple presentó el jueves nuevas herramientas destinadas a detectar imágenes sexuales de niños almacenadas en su servidor iCloud y eventualmente reportarlas a las autoridades.
“Queremos ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión de pornografía infantil“, dijo el grupo en su página.
La compañía usará herramientas de cifrado que analicen y vinculen imágenes que consideren sospechosas con un número específico para cada una.
También planea comparar las fotos cargadas en iCloud con las almacenadas en un archivo administrado por el Centro Nacional de Niños Desaparecidos y Explotados (NCMEC), una corporación privada estadounidense que trabaja para reducir la explotación sexual infantil. Apple asegura que no tiene acceso directo a las imágenes.
Cuando una foto se parezca a alguna del archivo, Apple la revisará manualmente, deshabilitará la cuenta del usuario si es necesario y enviará un informe al NCMEC.
El grupo también está planeando nuevas herramientas para prevenir a los niños y padres que tienen una cuenta de “Compartir en familia” (Family Sharing) cuando fotos explícitas les sean enviadas a la aplicación Mensajes.
Las fotos se verán borrosas y se remitirá al menor a los mensajes de prevención con una advertencia de que no está obligado a abrir la imagen.
Los padres pueden optar por recibir un mensaje cuando su hijo abra fotos. Se implementarán protecciones similares para los niños que envíen fotos sexualmente explícitas.
El grupo también incrementará la información de prevención que difunde la asistente de voz Siri cuando los niños o los padres pidan consejo sobre determinadas situaciones.
Siri y Search también pueden intervenir cuando los usuarios busquen imágenes de pornografía infantil advirtiéndoles que dicho contenido es problemático.
Estas herramientas estarán disponibles gradualmente con las próximas actualizaciones de los sistemas operativos en iPhone, iPad, iWatch e iMac.