Apple a procédé à la mise à jour de la page web dédiée sur ses fonctionnalités controversées de protection de l'enfance. L'entreprise a retiré toutes les mentions y relatives. Malgré la modification, des documents d’Apple suggèrent un maintien du cap vers l'implémentation.
En effet, si la page dédiée a fait l’objet de toilettage, la foire aux questions d’Apple sur « les protections étendues pour l’enfance » demeure très explicite sur les fonctionnalités à controverse.
« Non. De par sa conception, cette fonctionnalité ne s'applique qu'aux photos que l'utilisateur choisit de télécharger sur iCloud Photos, et même dans ce cas, Apple ne prend connaissance que des comptes qui stockent des collections d'images d'abus sexuels sur enfants connues, et uniquement des images qui correspondent à celles d'abus sexuels sur enfants connues. Le système ne fonctionne pas pour les utilisateurs qui ont désactivé Photos iCloud. Cette fonctionnalité ne tourne pas sur la bibliothèque privée de photos de votre iPhone », indique Apple quant à la question de savoir si l’entreprise compte procéder au scannage de toutes les photos sur les iPhone.
« Non. Les images d'abus sexuels sur enfants ne sont pas stockées ou envoyées sur l'appareil. Au lieu d'images réelles, Apple utilise des hash illisibles qui sont stockés sur l'appareil. Ces hash sont des chaînes de chiffres qui représentent des images d'abus sexuels sur enfants connues, mais il n'est pas possible de lire ou de convertir ces hash en images d'abus sexuels sur enfants sur lesquelles ils sont basés. Cet ensemble de hash est basé sur des images acquises et validées comme étant des images d'abus sexuels sur enfants par au moins deux organisations de protection de l'enfance. Grâce à de nouvelles applications du chiffrement, Apple est en mesure d'utiliser ces hash pour connaître uniquement les comptes iCloud Photos qui stockent des collections de photos correspondant à ces images d'abus sexuels sur enfants connues », ajoute Apple.
« L'un des défis importants dans ce domaine est de protéger les enfants tout en préservant la vie privée des utilisateurs. Grâce à cette nouvelle technologie, Apple sera informé des photos d'abus sexuels sur enfants connues, stockées dans iCloud Photos, lorsque le compte stocke une collection d'abus sexuels sur enfants connus. Apple n'apprendra rien sur les autres données stockées uniquement sur l'appareil. Les techniques existantes, telles qu'elles sont mises en œuvre par d'autres entreprises, analysent toutes les photos des utilisateurs stockées dans le nuage. Cela crée un risque pour la vie privée de tous les utilisateurs. La détection d'images d'abus sexuels sur enfants dans iCloud Photos offre des avantages significatifs en matière de protection de la vie privée par rapport à ces techniques, en empêchant Apple de prendre connaissance des photos à moins qu'elles ne correspondent à des images d'abus sexuels sur enfants connues et qu'elles soient incluses dans un compte iCloud Photos qui comprend une collection d'images d'abus sexuels sur enfants », précise la firme.
Deux des trois fonctionnalités de sécurité ont fait l’objet de publication en début de semaine sous iOS 15.2. L'une est conçue pour avertir les enfants lorsqu'ils reçoivent des images contenant de la nudité dans des messages, tandis que la seconde fournit des informations supplémentaires lors de la recherche de termes liés à l'exploitation des enfants via Siri, Spotlight ou Safari Search. Celle de détection d’images d’abus sexuels sur enfants était attendue avec iOS15, mais continue d’être retardée.
La fonction de détection d'images d'abus sexuels sur enfants d'Apple fait l'objet de controverse, car elle laisse le sentiment aux possesseurs d'appareils Apple que leurs photos sont passées au peigne fin. Dans une série de tweets, le militant de la protection de la vie privée Edward Snowden exprime ses inquiétudes qu'Apple déploie une forme de « surveillance de masse dans le monde entier » et crée un précédent qui pourrait permettre à l'entreprise de rechercher tout autre contenu arbitraire dans le futur.
Apple pour sa part affirme que cette approche lui permet de signaler aux autorités les utilisateurs dont on sait qu'ils mettent en ligne des images d'abus sexuels sur enfants sans compromettre la vie privée de ses clients en général. Apple affirme également que le chiffrement des données des utilisateurs n'est pas affecté et que l'analyse est effectuée sur l'appareil.
Sources : Apple 1,2
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi :
Dans un mémo interne, Apple répond aux préoccupations concernant les nouvelles fonctions de balayage des photos, alors que les experts dénoncent un recul dans les progrès en matière de vie privée
Après les critiques, Apple ne recherchera que les images d'abus signalées dans plusieurs pays et insiste sur le fait qu'il s'agit d'une avancée en matière de confidentialité
Les fonctions de protection de l'enfance d'Apple suscitent l'inquiétude dans ses propres rangs, des employés craignent qu'elles deviennent une arme au service des gouvernements répressifs
Le PDG d'Epic Games met en garde contre la "surveillance d'État" d'Apple, alors qu'Epic Games est détenu en partie par Tencent en Chine
Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs, mais les chercheurs en sécurité craignent une surveillance de masse des iPhone
Apple supprime de la page web dédiée les mentions aux fonctionnalités controversées de protection de l'enfance après un tollé sur la vie privée
Mais des documents suggèrent un maintien du cap
Apple supprime de la page web dédiée les mentions aux fonctionnalités controversées de protection de l'enfance après un tollé sur la vie privée
Mais des documents suggèrent un maintien du cap
Le , par Patrick Ruiz
Une erreur dans cette actualité ? Signalez-nous-la !