IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Apple retarde les fonctionnalités controversées de protection de l'enfance après un tollé sur la vie privée
Des défenseurs des droits numériques les considérant comme « une porte dérobée »

Le , par Stéphane le calme

20PARTAGES

7  0 
Début août, Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste.

Apple a précisé que la technologie de balayage fait partie d'une nouvelle série de systèmes de protection des enfants qui « évolueront et se développeront au fil du temps ». Les fonctionnalités seront déployées dans le cadre d'iOS 15, dont la sortie est prévue ce mois-ci. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société.

Le système, appelé neuralMatch, alertera de manière proactive une équipe d'examinateurs humains s'il pense que des images illégales sont détectées. Selon un article de Financial Times, qui a rapporté la nouvelle pour la première fois, les examinateurs humains contacteront ensuite les forces de l'ordre si le matériel peut être vérifié. Le système neuralMatch, qui a été formé à l'aide de 200 000 images du National Center for Missing & Exploited Children, sera d'abord déployé aux États-Unis, puis au reste du monde. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.

Selon les explications de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un « bon de sécurité » indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.

La réaction des employés d'Apple

Une initiative qui a créé la division, même au sein des employés Apple. Selon un rapport, un nombre indéterminé d'employés d'Apple se sont tournés vers les canaux internes de Slack pour faire part de leurs préoccupations concernant la détection CSAM. Plus précisément, les employés craignent que les gouvernements ne forcent Apple à utiliser la technologie à des fins de censure en trouvant un contenu autre que CSAM. Certains employés ont manifesté leurs craintes de voir Apple porter atteinte à sa réputation de leader en matière de confidentialité.

En quelques jours, les employés d'Apple ont échangé plus de 800 messages sur le plan annoncé, ont déclaré des travailleurs à la presse qui ont demandé à ne pas être identifiés. Beaucoup ont exprimé leur inquiétude que la fonctionnalité puisse être exploitée par des gouvernements répressifs cherchant à trouver d'autres matériaux pour la censure ou les arrestations, selon ces travailleurs.

Les changements de sécurité passés chez Apple ont également suscité des inquiétudes parmi les employés, mais le volume et la durée du nouveau débat sont surprenants, ont précisé les travailleurs. Les employés d'Apple occupant des postes liés à la sécurité des utilisateurs ne sont pas censés avoir fait partie de la protestation interne, selon le rapport.

Edward Snowden

Dans une série de tweets, le militant de la protection de la vie privée Edward Snowden a souligné les inquiétudes qu'Apple déploie une forme de « surveillance de masse dans le monde entier » et crée un précédent qui pourrait permettre à l'entreprise de rechercher tout autre contenu arbitraire dans le futur.

« Peu importe à quel point les intentions sont bonnes, Apple déploie une surveillance de masse dans le monde entier avec cela. Ne vous y trompez pas : s'ils peuvent rechercher de la pédopornographie aujourd'hui, ils pourraient rechercher n'importe quoi demain. Ils ont transformé un billion de dollars d'appareils en iNarcs— sans demander ».


Snowden a également noté qu'Apple a toujours été un leader du secteur en termes de confidentialité numérique et a même refusé de déverrouiller un iPhone appartenant à Syed Farook, l'un des tireurs des attentats de décembre 2015 à San Bernardino, en Californie, malgré les injonctions du FBI et d'un juge fédéral. Apple s'est opposé à l'ordonnance, notant qu'elle créerait un « précédent dangereux ».

L'Electronic Frontier Foundation

Le groupe de défense des droits numériques à but non lucratif a vivement condamné la décision d'Apple d'analyser les bibliothèques et les messages iCloud des utilisateurs, affirmant qu'il est extrêmement « déçu » qu'un « champion du chiffrement de bout en bout » entreprenne une « choquante volte-face pour les utilisateurs qui se sont appuyés sur le leadership de l'entreprise en matière de confidentialité et de sécurité » :

« L'exploitation des enfants est un problème grave, et Apple n'est pas la première entreprise technologique à modifier sa position de protection de la vie privée pour tenter de la combattre. Mais ce choix aura un prix élevé pour la confidentialité globale des utilisateurs. Apple peut expliquer en détail comment sa mise en œuvre technique préservera la confidentialité et la sécurité de sa porte dérobée proposée, mais en fin de compte, même une porte dérobée soigneusement documentée, soigneusement pensée et à portée étroite est toujours une porte dérobée... ».

« Il est impossible de créer un système de numérisation côté client qui ne peut être utilisé que pour les images sexuellement explicites envoyées ou reçues par des enfants. En conséquence, même un effort bien intentionné pour construire un tel système brisera les promesses clés du chiffrement et ouvrira la porte à des abus plus larges. ».

« Tout ce qu'il faudrait pour élargir la porte dérobée étroite qu'Apple construit est une extension des paramètres d'apprentissage automatique pour rechercher des types de contenu supplémentaires, ou un ajustement des indicateurs de configuration à analyser, pas seulement les comptes des enfants, mais ceux de n'importe qui. Ce n'est pas une pente glissante ; c'est un système entièrement construit qui n'attend que la pression extérieure pour faire le moindre changement ».

L'EFF a souligné comment divers gouvernements du monde entier ont adopté des lois qui exigent la surveillance et la censure du contenu sur diverses plateformes, y compris les applications de messagerie, et que la décision d'Apple de numériser les messages et iCloud Photos  pourrait être légalement tenue d'inclure du matériel supplémentaire ou facilement être élargie. « Ne vous méprenez pas : il s'agit d'une diminution de la confidentialité pour tous les utilisateurs de  iCloud Photos , pas d'une amélioration », a averti l'EFF.

Les chercheurs

Matthew Green, professeur à l'université John Hopkins et cryptographe, a indiqué sur Twitter : « Ce genre d'outils peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens... Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire ».

En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.

Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.

La polémique aura eu raison des intentions d’Apple

Apple a décidé de retarder ses fonctionnalités de protection de l'enfance annoncées le mois dernier, y compris une fonctionnalité controversée qui analyserait les photos des utilisateurs à la recherche de matériel pédopornographique (CSAM), à la suite de vives critiques selon lesquelles les changements pourraient diminuer la confidentialité des utilisateurs. Les changements devaient être déployés plus tard cette année.

« Le mois dernier, nous avons annoncé des plans pour des fonctionnalités destinées à aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et à limiter la propagation du matériel d'abus sexuel d'enfants », a déclaré Apple dans une mise à jour de son communiqué de presse. « Sur la base des commentaires des clients, des groupes de défense des droits, des chercheurs et d'autres, nous avons décidé de prendre plus de temps au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d'une importance cruciale ».

Matthew Green, chercheur en cybersécurité à l'Université Johns Hopkins qui avait critiqué la décision d'Apple, a déclaré que la décision d'Apple était « prometteuse ». Green a déclaré sur Twitter qu'Apple devrait « être clair sur les raisons pour lesquelles Apple scanne mais aussi ce qu'Apple scanne. Passer de l'analyse de rien (en dehors des pièces jointes aux e-mails) à l'analyse de la photothèque privée de tout le monde est énorme. Vous devez justifier des escalades comme celle-ci ».

Apple jouait les défenseurs de son initiative depuis des semaines, et avait déjà proposé une série d'explications et de documents pour montrer que les risques de fausses détections étaient faibles. L'éditeur avait prévu de déployer la fonctionnalité pour iPhones, iPads et Mac avec des mises à jour logicielles plus tard cette année aux États-Unis.

Source : Apple, Snowden, EFF

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de
https://www.developpez.com
Le 06/09/2021 à 7:22
La seule donnée privée, c'est celle qui n'est pas collectée.

Quand Apple prétend protéger la vie privée de ses utilisateurs au prétexte que les (nombreuses) informations collectées ne sont pas transmises à des tiers, c'est juste du bidon.
7  0 
Avatar de Aiekick
Membre extrêmement actif https://www.developpez.com
Le 22/08/2022 à 10:54
j'espere que cet incident ouvrira les yeux aux gens.

google a de nombreux service gratuits qui sont tres bien fait et pour une bonne raisons.
une fois que vous ne pouvez plus vous en passer, il ya une sorte de chantage qui s'installe.

mais au dela de ca, il peut tout vous couper comme ca lui prends. c'est couvert dans les dispositions generales que
vous n'avez pas le choix de signer regulierement pour continuer a utiliser les services en question. (le fameux chantage dont je parlais)

Et comme pour les jeux et apps qui sont supprimés avec un messages abscons sans possibiltié de faire appel par le dev, ni contact de quoi que ce soit,
vous perdez d'un coup l'acces a tous les services google dont vous etes dependant d'une maniere ou d'une autre, donc tout vos mails, votre telephone android, et toute les autres services, comme google ads (que vous ayez des sous ou pas dedssus bien evidemment).

si vous etendez ca aux autres GAFAM, ca peut limite vous couper de la plupart des grand services mainstream d'internet.

Pour eviter ca, il ne faut pas mettre tout ces oeufs dans le meme panier, soit, commencer, a ce passer d'eux quand c'est possible.

Et c'est pas evident, mais necessaire. ce qui lui est arrivé peut vous arriver pour un motif encore plus light..
6  0 
Avatar de pcdwarf
Membre éprouvé https://www.developpez.com
Le 06/09/2024 à 1:36
Haha "du lobbying contre la sécurité des enfants" !
ça va ? la manipe linguistique n'est pas trop voyante ?
Et oui! ça fait plus de 20 ans que cette fausse excuse pour la surveillance généralisée marche ! Sous prétexte de lutte contre les pédonazis, il faut fliquer tout le monde.

Mais c'est quand même pas compliqué à comprendre !
La seule raison pour laquelle on peut accepter de mettre des données personnelles (et pourtant parfaitement innocentes) sur un cloud, c'est parce qu'il est sensé être absolument privé.
On se doute bien que ça n'est pas réellement le cas, mais à partir du moment où il est de notoriété publique que le cloud Apple n'est pas du tout un espace confidentiel mais un espace qui est automatiquement scanné pour repérer ce type de données, il est évident que les criminels concernés feront absolument tout pour éviter de s'en servir (En toute logique, ils évitent déjà). Alors certes, ça permettra d’attraper un neuneu ou deux, mais à quel prix ? Parce que si on ouvre la boite de pandore pour scanner le pédoporn il ne faudra pas longtemps avant qu'on scanne d'autres trucs permettant de faire du profilage, politique, religieux etc... ou même simplement pour de la pub ciblée. Et à coté de ça, combien de faux positifs ? Parce que ça peut rapidement causer des emmerdes qui vont loin...
6  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 24/08/2022 à 16:42
Citation Envoyé par Patrick Ruiz Voir le message

Interdire le scannage automatique des communications privées ou le maintenir : de quel bord êtes-vous ?
Que rien ne peut justifier le scan de communications privées qui par définition relèvent de la vie privée.
Sur le fond c'est un scandale que Google les scanne et sur ce cas particulier c'est l'équivalent d'un mauvais fonctionnement que de les bloquer.

Citation Envoyé par Patrick Ruiz Voir le message

Quelles solutions techniques préconisez-vous dans le cas d’un maintien du scannage automatique des communications privées pour garantir un équilibre entre vie privée et sécurité ?
Aucune, on ne va pas voir ce qui relève du privé, point. La question ne peut se poser que pour les communications publiques ou là il y a par contre beaucoup à faire contre les manipulations, les harcèlements et bien d'autres choses
6  1 
Avatar de OldGhost
Membre à l'essai https://www.developpez.com
Le 25/08/2022 à 12:28
La situation interpelle d’autant plus que l’UE travaille ce que les tous les fournisseurs de services de courrier électronique, de chat et de messagerie fouillent dans les communications privées à la recherche de messages suspects de manière entièrement automatisée et à les transmettre à la police dans le cadre de la lutte contre la pédopornographie. La présentation d’un projet de loi y relatif s’est en principe faite au cours du mois de mai de l’année en cours.
En résumé, Bruxelles veut officialiser la capacité des fournisseurs américains à faire de l'espionnage industriel pour le compte des US et au détriment des pays européens, sous couvert de lutte contre la pédocriminalité.

Les réseaux organisés de pornographie infantile n'utilisent pas le courrier électronique ou les services de messagerie, mais les forums du darknet
Pas de chance ! Encore une mesure inutile par rapport à l'objectif annoncé, à croire que tout est fait pour aller vers une société de cyber-contrôle et d'espionnage de masse.
5  0 
Avatar de LeBreton56
Membre régulier https://www.developpez.com
Le 25/08/2022 à 16:32
je me demande comment des européens peuvent voter ce genre de surveillance et en même temps défendre la RGPD et la protection des identités
Il est inadmissible que des sociétés privées aient le pouvoir(et devoir apparemment) de fouiller dans notre vie privée alors qu' en générale la police ou la gendarmerie a besoins d'un mandat pour le faire.

je pense que nos politique sont tombés sur la tête et ne comprennent rien à l'informatique et au réseaux. a moins que des soit disant expert leur aient vendue la lune.

j'en pleure sur la patrie de la liberté égalité fraternité.
5  0 
Avatar de PsychoH13
Membre averti https://www.developpez.com
Le 05/09/2024 à 18:39
Les mesures de sécurité qui sont demandés pour soi-disant protéger les enfants sont en fait des mesures réduisent la sécurité de tout le monde et permet aux gouvernements et aux criminels d'espionner tout le monde. Apple a bien raison de se battre contre ces mesures et ces projets de lois!

Les gouvernements utilisent les enfants comme des boucliers pour cacher leur vrais désires qui est de pouvoir espionner de tout le monde, les gouvernement veulent une backdoor dans le système d'encryption de tous vos appareils ce qui les ouvriraient à toutes les attaques.

Il n'y a que deux types d'encryption: celle qui empêche le gouvernement d'entrer ou celle qui empêche votre petite soeur de rentrer, il n'y a pas de juste milieu qui permettrait aux pouvoirs publics d'espionner tout le monde sans compromettre la sécurité de tous.

Si vous entendez protection des enfants comme justification de tout projet de loi, vous pouvez savoir sans même le lire que c'est une arnaque.
5  0 
Avatar de chrtophe
Responsable Systèmes https://www.developpez.com
Le 24/08/2022 à 18:06
Quelles solutions techniques préconisez-vous dans le cas d’un maintien du scannage automatique des communications privées pour garantir un équilibre entre vie privée et sécurité ?
une solution : https://fr.wikipedia.org/wiki/Proton_Mail, mais limité ne version gratuite
autre solution ; Utilisation de client de messagerie prenant en charge OpenPGP, mais galère, il faut créer un jeu de clé publique/cl privée et le destinataire doit l'utiliser.

Quelle que soit la situation, ayez une sauvegarde offline de vos mails , et dans la mesure du possible, utilisez une adresse sur votre propre nom de domaine, vous pourrez ainsi changer d'hébergeur de mail à tout moment
4  0 
Avatar de tyrtamos
Expert éminent https://www.developpez.com
Le 25/08/2022 à 5:26
Bonjour. Il y a plusieurs choses choquantes dans cette information. C'est bien pour la société que Google (et Facebook, etc...) dispose d'une surveillance pour éviter les messages illégaux et dangereux, mais encore faut-il ne pas le faire n'importe comment. Dans le problème cité:
- comment une conversation et une photo communiquées dans le cadre d'une consultation médicale ont-elles pu être scannées? Il n'y a plus de secret médical?
- la police ayant vérifié et constaté qu'il n'y a rien de répréhensible, comment Google ose-t-il refuser de restaurer le compte annulé?

Un problème du même genre mais heureusement moins grave, vient de m'arriver avec Facebook. J'ai été interpelé méchamment par Facebook pour un message innocent concernant... le code de la route, comme quoi il "contrevenait aux règles de Facebook"! J'avais seulement émis des doutes sur le fait que certaines règles du code de la route allemand soit compatible avec la mentalité des français. J'ai bien sûr refusé le verdict, mais Facebook a maintenu sa position. J'ai encore protesté en m'expliquant , et Facebook ne me supprime pas en disant que "une erreur est toujours possible". Ils ont donc pris acte de ma 2ème protestation mais il ne l'ont pas lue puisqu'ils ne répondent pas sur le fond. Cette dernière décision était donc elle aussi automatique.

Il y a manifestement un algorithme qui repère les "mots interdits" sans tenir aucun compte du sens des phrases ni du contexte, et génère des sanctions automatiques.

Ce qui me choque, c'est que dans un cas aussi simple et aussi facile à défendre que le mien, je n'ai eu manifestement aucune personne physique intelligente pour répondre à mes protestations. Cela augure mal des suites: nous qui critiquions facilement le caractère aveugle de notre administration française, nous allons vers une époque où nous serons condamnés par un ordinateur pour de fausses raisons sans aucune possibilité de se défendre. Je fini par être content d'être vieux: je ne verrai pas la suite, mais nos enfants, eux, la verront et la subiront. Triste époque...
5  1 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 25/08/2022 à 8:34
Citation Envoyé par tyrtamos Voir le message
C'est bien pour la société que Google (et Facebook, etc...) dispose d'une surveillance pour éviter les messages illégaux et dangereux
Alors juste, non.
Il n'y a rien de bien là dedans.
Citation Envoyé par tyrtamos Voir le message
- la police ayant vérifié et constaté qu'il n'y a rien de répréhensible, comment Google ose-t-il refuser de restaurer le compte annulé?
J'ai une réponse simple et cynique : quand tu créés un compte, google t'informes que tout ce qui y est associé (mail, documents, etc) lui appartient et qu'y accéder et un service qu'il te rend.
Donc Google n'a même pas à restaurer le compte parce que ce n'est celui du père mais celui de google.
La seule chose à restaurer est l'accès à celui ci.

Oui, c'est choquant mais beaucoup ont signé pour ça plus ou moins consciemment.
Je suis dans le CA d'une association qui a un compte Gmail, et un google drive qui contient toutes nos données. J'ai suggéré que nous adoptions une alternative ou au minimum que nous ayons un back up. Leur réponse est simple : "tkt, ce genre de situation n'arrivera jamais."
Ils ont même été réticents quand je leur ai proposé de m'occuper de faire ce back up. Je ne comprends pas ce qui bloque autant les gens, je soupçonne qu'ils ont peur de se rendre compte que tout ceci c'est se rendre compte qu'ils ont mis une grande partie de leur sécurité (et potentiellement de leur entreprise) dans un colosse aux pieds d'argile.
5  1