Début août, Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste.Apple a précisé que la technologie de balayage fait partie d'une nouvelle série de systèmes de protection des enfants qui « évolueront et se développeront au fil du temps ». Les fonctionnalités seront déployées dans le cadre d'iOS 15, dont la sortie est prévue ce mois-ci. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société.
Le système, appelé neuralMatch, alertera de manière proactive une équipe d'examinateurs humains s'il pense que des images illégales sont détectées. Selon un article de Financial Times, qui a rapporté la nouvelle pour la première fois, les examinateurs humains contacteront ensuite les forces de l'ordre si le matériel peut être vérifié. Le système neuralMatch, qui a été formé à l'aide de 200 000 images du National Center for Missing & Exploited Children, sera d'abord déployé aux États-Unis, puis au reste du monde. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.
Selon les explications de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un « bon de sécurité » indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.
La réaction des employés d'Apple
Une initiative qui a créé la division, même au sein des employés Apple. Selon un rapport, un nombre indéterminé d'employés d'Apple se sont tournés vers les canaux internes de Slack pour faire part de leurs préoccupations concernant la détection CSAM. Plus précisément, les employés craignent que les gouvernements ne forcent Apple à utiliser la technologie à des fins de censure en trouvant un contenu autre que CSAM. Certains employés ont manifesté leurs craintes de voir Apple porter atteinte à sa réputation de leader en matière de confidentialité.
En quelques jours, les employés d'Apple ont échangé plus de 800 messages sur le plan annoncé, ont déclaré des travailleurs à la presse qui ont demandé à ne pas être identifiés. Beaucoup ont exprimé leur inquiétude que la fonctionnalité puisse être exploitée par des gouvernements répressifs cherchant à trouver d'autres matériaux pour la censure ou les arrestations, selon ces travailleurs.
Les changements de sécurité passés chez Apple ont également suscité des inquiétudes parmi les employés, mais le volume et la durée du nouveau débat sont surprenants, ont précisé les travailleurs. Les employés d'Apple occupant des postes liés à la sécurité des utilisateurs ne sont pas censés avoir fait partie de la protestation interne, selon le rapport.
Edward Snowden
Dans une série de tweets, le militant de la protection de la vie privée Edward Snowden a souligné les inquiétudes qu'Apple déploie une forme de « surveillance de masse dans le monde entier » et crée un précédent qui pourrait permettre à l'entreprise de rechercher tout autre contenu arbitraire dans le futur.
« Peu importe à quel point les intentions sont bonnes, Apple déploie une surveillance de masse dans le monde entier avec cela. Ne vous y trompez pas : s'ils peuvent rechercher de la pédopornographie aujourd'hui, ils pourraient rechercher n'importe quoi demain. Ils ont transformé un billion de dollars d'appareils en iNarcs— sans demander ».
Snowden a également...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Interdire le scannage automatique des communications privées ou le maintenir : de quel bord êtes-vous ?

