« Nous voulons aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et limiter la diffusion de contenu pédopornographique », explique le géant de l'informatique sur son site.
Apple compte utiliser des outils de cryptographie qui analysent et convertissent les images en un nombre spécifique à cette image. Le groupe prévoit de comparer ensuite les photos téléchargées sur iCloud avec celles entreposées dans un fichier géré par le Central national des enfants disparus et exploités (NCMEC).
Le groupe assure qu'il n'a ainsi pas directement accès à l'image. Quand une photo semble similaire à celle du fichier, Apple ira manuellement vérifier, désactivera le cas échéant le compte de l'utilisateur et enverra un rapport au centre.
Prévention
Le groupe prévoit par ailleurs de nouveaux outils permettant de prévenir les enfants et les parents réunis sur un compte de Partage familial quand des photos explicites sont envoyées sur l'application Messages. Les photos seront alors floutées et l'enfant sera renvoyé vers des messages de prévention et prévenu qu'il n'est pas obligé d'ouvrir le cliché. Les parents pourront, s'ils le décident, choisir de recevoir un message quand leur enfant ouvre des photos. Des protections similaires seront mises en place pour les enfants envoyant des photos sexuellement explicites.
Le groupe va également renforcer les informations de prévention diffusées par l'assistant vocal Siri quand les enfants ou parents demandent des conseils sur certaines situations. Siri et Search pourront aussi intervenir quand des utilisateurs font des recherches d'images pédopornographiques en les prévenant que ces contenus sont problématiques. Ces outils seront disponibles progressivement avec les prochaines mises à jour des systèmes d'exploitation sur les iPhone, iPad, iWatch et iMac.
Lire aussi : Les serveurs de Free hébergent plus d'un million d'images pédopornographiques