IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

L'hypocrisie d'Apple dévoilée : L'entreprise dépense des millions pour faire du lobbying contre les mesures de sécurité pour les enfants

Le , par Jade Emy

28PARTAGES

13  2 
Apple envisage un système de détection d'images d'abus d'enfants dans la galerie de photos des utilisateurs,
mais les chercheurs en sécurité craignent une surveillance de masse des iPhone

Apple a annoncé l'arrivée de nouvelles fonctions d'identification des photos sur iOS qui utiliseront des algorithmes de hachage pour faire correspondre le contenu des photos de la galerie des utilisateurs avec des éléments connus d'abus d'enfants, tels que la pornographie enfantine. L'iPhone téléchargera un ensemble d'empreintes numériques représentant le contenu illégal, puis comparera chaque photo de la galerie de l'utilisateur à cette liste. Le projet, qui devrait prendre vie aux États-Unis avant d'être étendu au reste du monde, suscite l'indignation et la communauté dénonce une surveillance de masse orchestrée par Apple.

À en juger par le nombre de critiques négatives vis-à-vis d'Apple, cette initiative n'est sans doute pas la meilleure de l'entreprise dans sa lutte contre la pédophilie et la pédopornographie. Apple, qui est un fervent défenseur de la vie privée et qui est connu pour avoir refusé de déverrouiller l'iPhone d'un suspect dans le cadre d'une enquête fédérale, envisage désormais d'"espionner" ses utilisateurs. L'entreprise a l'intention d'installer un logiciel sur les iPhone américains pour détecter les images d'abus d'enfants. Elle a présenté son projet pour la première à des universitaires en début de semaine lors d'une visioconférence.



Plus tard, Apple a confirmé ses projets dans un billet de blogue, précisant que la technologie de balayage fait partie d'une nouvelle série de systèmes de protection des enfants qui "évolueront et se développeront au fil du temps". Les fonctionnalités seront déployées dans le cadre d'iOS 15, dont la sortie est prévue le mois prochain. « Cette nouvelle technologie innovante permet à Apple de fournir des informations précieuses et exploitables au National Center for Missing and Exploited Children et aux forces de l'ordre concernant la prolifération de CSAM [child sexual abuse material] connus », a déclaré la société.

Le système, appelé neuralMatch, alertera de manière proactive une équipe d'examinateurs humains s'il pense que des images illégales sont détectées. Selon un article de Financial Times, qui a rapporté la nouvelle pour la première fois, les examinateurs humains contacteront ensuite les forces de l'ordre si le matériel peut être vérifié. Le système neuralMatch, qui a été formé à l'aide de 200 000 images du National Center for Missing & Exploited Children, sera d'abord déployé aux États-Unis. Les photos seront hachées et comparées à une base de données d'images connues d'abus sexuels sur des enfants.

Selon les explications du géant de Cupertino, chaque photo téléchargée sur iCloud aux États-Unis recevra un "bon de sécurité" indiquant si elle est suspecte ou non. Ainsi, une fois qu'un certain nombre de photos seront marquées comme suspectes, Apple permettra de déchiffrer toutes les photos suspectes et, si elles apparaissent comme illégales, de les transmettre aux autorités compétentes. « Apple ne prend connaissance des photos des utilisateurs que si ceux-ci possèdent une collection de CSAM connus dans leur compte iCloud Photos », a déclaré l'entreprise pour tenter de rassurer les utilisateurs quant à la confidentialité de leurs données.

Il faut noter que neuralMatch représente la dernière tentative d'Apple de trouver un compromis entre sa propre promesse de protéger la vie privée des clients et les demandes des gouvernements, des organismes d'application de la loi et des militants pour la sécurité des enfants pour une plus grande assistance dans les enquêtes criminelles, y compris le terrorisme et la pédopornographie. La tension entre les entreprises technologiques telles qu'Apple et Facebook, qui ont défendu leur utilisation croissante du chiffrement dans leurs produits et services, et les forces de l'ordre n'a fait que s'intensifier depuis 2016.

À l'époque, Apple était allé en justice avec le FBI au sujet de l'accès à l'iPhone d'un suspect terroriste après une fusillade à San Bernardino, en Californie. Cette décision est donc perçue comme une sorte de volte-face de la part d'Apple, qui s'est déjà opposé aux forces de l'ordre pour défendre la vie privée des utilisateurs. Matthew Green, professeur à l'université John Hopkins et cryptographe, a fait part de ses inquiétudes concernant ce système sur Twitter mercredi soir. « Ce genre d'outils peut être une aubaine pour trouver de la pédopornographie dans les téléphones des gens », a déclaré Green.

« Mais imaginez ce qu'il pourrait faire entre les mains d'un gouvernement autoritaire », s'est-il interrogé. Cela inquiète les chercheurs en sécurité qui préviennent que cela pourrait ouvrir la porte à la surveillance des appareils personnels de millions de personnes. Les chercheurs en sécurité, bien qu'ils soutiennent les efforts d'Apple pour lutter contre la maltraitance des enfants, s'inquiètent du fait que l'entreprise risque de permettre aux gouvernements du monde entier de chercher à accéder aux données personnelles de leurs citoyens, potentiellement bien au-delà de son intention initiale.

« C'est une idée absolument épouvantable, car elle va conduire à une surveillance massive et distribuée de nos téléphones et ordinateurs portables », a déclaré Ross Anderson, professeur d'ingénierie de la sécurité à l'université de Cambridge. En outre, selon les chercheurs, bien que le système soit actuellement formé pour repérer les abus sexuels sur les enfants, il pourrait être amélioré pour détecter toute autre image, par exemple, les décapitations de terroristes ou les signes antigouvernementaux lors de manifestations. Mais les dangers ne se limitent pas là et pourraient atteindre d'autres plateformes.

Le précédent créé par Apple pourrait également accroître la pression exercée sur les autres entreprises technologiques pour qu'elles utilisent des techniques similaires. « Les gouvernements l'exigeront de tous », s'est inquiété Green. Alec Muffett, chercheur en sécurité et militant pour la protection de la vie privée qui a travaillé chez Facebook et Deliveroo, a déclaré que la décision d'Apple était "tectonique" et constituait un "pas énorme et régressif pour la vie privée". « Apple fait reculer la vie privée pour permettre 1984 [NDLR, le plus célèbre roman dystopique de George Orwell, publié en 1949] », a-t-il déclaré.

Les systèmes de stockage de photos dans le nuage et les sites de réseaux sociaux recherchent déjà les images d'abus d'enfants. Apple utilise, par exemple, des techniques de hachage lorsque les photos sont téléchargées sur iCloud Photos. Toutes les photos téléchargées sur iCloud Photos pour la sauvegarde et la synchronisation ne sont pas stockées en chiffrement de bout en bout. Les photos sont stockées sous une forme chiffrée dans les fermes de serveurs d'Apple, mais les clés de déchiffrement sont également la propriété d'Apple. Cela signifie que les forces de l'ordre peuvent assigner Apple et voir toutes les photos téléchargées par un utilisateur.

Ce n'est pas inhabituel, tous les services photo tiers fonctionnent de cette manière. Cependant, ce processus devient plus complexe lorsqu'on essaie d'accéder aux données stockées sur un appareil personnel. Ce nouveau système se ferait côté client, sur l'appareil de l'utilisateur. « Le système d'Apple est moins invasif dans la mesure où le contrôle est effectué sur le téléphone, et ce n'est qu'en cas de correspondance qu'une notification est envoyée aux personnes effectuant la recherche », a déclaré Alan Woodward, professeur de sécurité informatique à l'université du Surrey.

Selon Woodward l'approche d'Apple est quand même "louable". « Cette approche décentralisée est à peu près la meilleure approche que vous puissiez adopter si vous vous engagez dans cette voie », a-t-il ajouté. L'algorithme neuralMatch d'Apple analysera en permanence les photos stockées sur l'iPhone d'un utilisateur américain et qui ont également été téléchargées sur son système de sauvegarde iCloud.

Source : Apple

Et vous ?

Quel est votre avis sur le sujet ?
Selon vous, Apple a-t-il le droit d'installer un tel logiciel sur votre iPhone ?
Quel sentiment l'idée de savoir que vos photos privées sont analysées en permanence vous procure-t-elle ?
Pensez-vous que les gouvernements ont gagné la guerre contre le chiffrement de bout en bout ? En quoi cela influera-t-il sur l'industrie ?
Pensez-vous que la lutte contre la maltraitance des enfants l'emporte sur la surveillance en permanence des appareils personnels ? Cette solution résout-elle le problème ?

Voir aussi

Pourquoi Apple refuse-t-elle d'aider le FBI à débloquer l'iPhone en sa possession ? L'entreprise évoque quelques raisons dans une requête d'annulation

Apple transmet des données personnelles à la Chine et supprime les applications jugées « offensantes » par le gouvernement

Apple aurait abandonné l'idée de déployer le chiffrement des sauvegardes sur iCloud après une plainte du FBI, d'après un rapport

Facebook n'a pas l'intention d'affaiblir le chiffrement de ses applications de messagerie pour donner un accès privilégié aux forces de l'ordre dans le cadre d'enquêtes
Vous avez lu gratuitement 3 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de pcdwarf
Membre éprouvé https://www.developpez.com
Le 06/09/2024 à 1:36
Haha "du lobbying contre la sécurité des enfants" !
ça va ? la manipe linguistique n'est pas trop voyante ?
Et oui! ça fait plus de 20 ans que cette fausse excuse pour la surveillance généralisée marche ! Sous prétexte de lutte contre les pédonazis, il faut fliquer tout le monde.

Mais c'est quand même pas compliqué à comprendre !
La seule raison pour laquelle on peut accepter de mettre des données personnelles (et pourtant parfaitement innocentes) sur un cloud, c'est parce qu'il est sensé être absolument privé.
On se doute bien que ça n'est pas réellement le cas, mais à partir du moment où il est de notoriété publique que le cloud Apple n'est pas du tout un espace confidentiel mais un espace qui est automatiquement scanné pour repérer ce type de données, il est évident que les criminels concernés feront absolument tout pour éviter de s'en servir (En toute logique, ils évitent déjà). Alors certes, ça permettra d’attraper un neuneu ou deux, mais à quel prix ? Parce que si on ouvre la boite de pandore pour scanner le pédoporn il ne faudra pas longtemps avant qu'on scanne d'autres trucs permettant de faire du profilage, politique, religieux etc... ou même simplement pour de la pub ciblée. Et à coté de ça, combien de faux positifs ? Parce que ça peut rapidement causer des emmerdes qui vont loin...
6  0 
Avatar de PsychoH13
Membre averti https://www.developpez.com
Le 05/09/2024 à 18:39
Les mesures de sécurité qui sont demandés pour soi-disant protéger les enfants sont en fait des mesures réduisent la sécurité de tout le monde et permet aux gouvernements et aux criminels d'espionner tout le monde. Apple a bien raison de se battre contre ces mesures et ces projets de lois!

Les gouvernements utilisent les enfants comme des boucliers pour cacher leur vrais désires qui est de pouvoir espionner de tout le monde, les gouvernement veulent une backdoor dans le système d'encryption de tous vos appareils ce qui les ouvriraient à toutes les attaques.

Il n'y a que deux types d'encryption: celle qui empêche le gouvernement d'entrer ou celle qui empêche votre petite soeur de rentrer, il n'y a pas de juste milieu qui permettrait aux pouvoirs publics d'espionner tout le monde sans compromettre la sécurité de tous.

Si vous entendez protection des enfants comme justification de tout projet de loi, vous pouvez savoir sans même le lire que c'est une arnaque.
5  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 04/09/2024 à 8:52
Citation Envoyé par OrthodoxWindows Voir le message
Pour une fois que je suis d'accord avec Apple, ce n'est pas fréquent
Oui mais ne nous félicitons pas trop, nous sommes peut être d'accord sur le résultat mais nos objectifs sont bien différents et on risque fort de finir avec un couteau dans le dos et un "je comprends pas nous étions pourtant d'accord".
1  0 
Avatar de OrthodoxWindows
Membre expert https://www.developpez.com
Le 04/09/2024 à 0:17
Pour une fois que je suis d'accord avec Apple, ce n'est pas fréquent

Ce projet de loi est très dangereux, car il risque de mener à terme à une vérification systématique d’identités juste pour télécharger des applications, et à une pertes de liberté encore plus importante pour les développeurs, à cause de l'obligation d'utiliser l'App Store (par contre là c'est la faute d'Apple).
3  3 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 04/09/2024 à 13:42
Citation Envoyé par totozor Voir le message
on risque fort de finir avec un couteau dans le dos et un "je comprends pas nous étions pourtant d'accord".
À la page 18 des conditions d'utilisation ?
0  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 05/09/2024 à 8:11
Citation Envoyé par Gluups Voir le message
À la page 18 des conditions d'utilisation ?
Par exemple mais pas que.
Je vois aussi le "Nous étions d'accord sur la réaction à cette loi donc vous êtes d'accord avec moi sur TOUT ce que je fais" (Toute ressemblance avec notre président de la république ou un patron de réseau social est bien sûr fortuite )
0  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 05/09/2024 à 21:49
Citation Envoyé par PsychoH13 Voir le message
Les mesures de sécurité qui sont demandés pour soi-disant protéger les enfants sont en fait des mesures réduisent la sécurité de tout le monde et permet aux gouvernements et aux criminels d'espionner tout le monde. Apple a bien raison de se battre contre ces mesures et ces projets de lois!
Pas sûr que j'aurais osé le dire, mais c'est quand même un angle de vue à ne pas négliger.


Il n'y a que deux types d'encryption: celle qui empêche le gouvernement d'entrer ou celle qui empêche votre petite soeur de rentrer,
Laquelle ? Celle qui est douce et adorable comme un cœur, ou celle qui est trop curieuse, rapporteuse et avec une forte tendance à taper sur les nerfs ?


il n'y a pas de juste milieu qui permettrait aux pouvoirs publics d'espionner tout le monde sans compromettre la sécurité de tous.

Si vous entendez protection des enfants comme justification de tout projet de loi, vous pouvez savoir sans même le lire que c'est une arnaque.
Boh allez, si on a le temps on le lit ...
0  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 06/09/2024 à 1:48
Citation Envoyé par pcdwarf Voir le message
Et à coté de ça, combien de faux positifs ? Parce que ça peut rapidement causer des emmerdes qui vont loin...
Sans même Internet, il suffit de dire bonjour à une passante pour voir la semaine d'après des parents d'enfants de deux ans avoir peur.

Et il y a des structures de médiation, mais pas à l'abri de fonctionner à l'envers. Surtout que pendant deux ans la réponse préférée des pros était "Je ne prends pas de nouveau patient."

J't'explique pas le gaspillage d'énergie.
0  0 
Avatar de tontonCD
Membre actif https://www.developpez.com
Le 09/09/2024 à 18:27
Un peu choqué par le titre de l'info. L'argument d'Apple est que son écosystème est déjà protégé, et comme dit par d'autres internautes le gouvernement essaie par tous les moyens de mettre son nez partout sous couvert de protection. Après, la protection par Apple est-elle suffisante ? Si vous avez déjà publié sur AppStore vous savez que ce n'est pas une mince affaire.
0  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 04/09/2024 à 8:40
avec ce genre de projets de lois je ne peux me questionner sur comment on en est arrivé la...., depuis quand les enfants peuvent utiliser un iphone/ipad ? et depuis quand sans la supervision des adultes ?
on prends le problème a l'envers, je n'ai pas eu de téléphone avant mon bac, et mes enfants n'ont pas de smartphones/tablettes non plus, ils n'en ont pas besoin et toutes les études prouve que c'est néfaste pour leurs santé.
Donc a partir de la, je vois pas l’intérêt de ce genre de projet de lois.

J'ai un feature phone et un bracelet pour enfant que je leurs donne quand on voyage pour que je puisse les appeler/les localiser si jamais on se perd (ce qui n'ai jamais arrivé mais on est jamais trop prudent). Perdre son gamin en vacances dans le métro d'une ville comme Hong Kong par exemple ce serait un peu dramatique
mais en dehors de ce cas bien spécifique et en plus il existe des outils adaptés aux enfants et pas cher (moins cher qu'un smarpthone), a l'école pour les enfants aillant la nécessité d’appeler les adultes, un feature phone fait très bien l'affaire.
0  1