Le plan d’Apple pour contrer les contenus pédopornographiques suscite des critiques

Le plan d'Apple pour contrer les contenus pédopornographiques suscite des critiques

Vendredi, Apple a révélé des plans pour s’attaquer au problème de la maltraitance des enfants sur ses systèmes d’exploitation aux États-Unis via des mises à jour d’iOS 15, iPadOS 15, watchOS 8 et macOS Monterey.

L’élément le plus litigieux des plans de Cupertino est son système de détection de matériel d’abus sexuel sur enfant (CSAM). Il s’agira pour les appareils Apple de faire correspondre les images présentes sur l’appareil à une liste de hachages d’images CSAM connus, fournis par le Centre national américain pour les enfants disparus et exploités et d’autres organisations de protection de l’enfance, avant qu’une image ne soit stockée dans iCloud.

« Avant qu’une image ne soit stockée dans iCloud Photos, un processus de correspondance sur l’appareil est effectué pour cette image par rapport aux hachages CSAM connus. Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il y a une correspondance sans révéler le résultat », a déclaré Apple.

« L’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données chiffrées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image. »

publicité

Du machine learning au service des utilisateurs

Lorsqu’un seuil non précisé est atteint, Apple regarde manuellement les bons et examine les métadonnées. Si l’entreprise détermine qu’il s’agit de CSAM, le compte sera désactivé et un rapport sera envoyé au Centre national américain pour les enfants disparus et exploités. Cupertino a déclaré que les utilisateurs pourront faire appel pour que leur compte soit réactivé.

Parmi les autres fonctionnalités annoncées par Apple vendredi Siri et Search proposeront des conseils et des ressources pour aider les enfants et les parents à rester en sécurité en ligne et à obtenir de l’aide dans les situations dangereuses, et feront aussi usage de machine learning pour avertir les enfants lorsqu’ils sont sur le point de voir des photos sexuellement explicites dans les iMessages.

« Lorsqu’il reçoit ce type de contenu, la photo sera floutée et l’enfant sera averti, on lui présentera des ressources utiles et on le rassurera en lui disant que ce n’est pas grave s’il ne veut pas voir cette photo. En guise de précaution supplémentaire, l’enfant peut également être informé que, pour s’assurer qu’il est en sécurité, ses parents recevront un message s’il la regarde », a déclaré Apple.

« Des protections similaires sont disponibles si un enfant tente d’envoyer des photos sexuellement explicites. L’enfant sera averti avant l’envoi de la photo, et les parents pourront recevoir un message si l’enfant choisit de l’envoyer. »


Image: Apple

Des fonctionnalités qualifiées de porte dérobée par l’EFF

Les plans d’Apple ont suscité des critiques au cours du week-end, l’Electronic Frontier Foundation qualifiant les fonctionnalités de porte dérobée. « Si vous avez passé un peu de temps à suivre la guerre des cryptomonnaies, vous savez ce que cela signifie : Apple prévoit de construire une porte dérobée dans son système de stockage de données et dans son système de messagerie », a écrit l’EFF.

« Apple peut expliquer en long et en large comment sa mise en œuvre technique préservera la vie privée et la sécurité dans sa porte dérobée proposée, mais en fin de compte, même une porte dérobée minutieusement documentée, soigneusement pensée et à portée étroite reste une porte dérobée. »

L’EFF a prévenu qu’une fois le système CSAM mis en place, la prochaine étape consisterait à le modifier pour rechercher d’autres types de contenus. « Ce n’est pas une pente glissante ; c’est un système entièrement construit qui n’attend que la pression extérieure pour effectuer le moindre changement », a-t-il déclaré.

« Les cas d’abus sont faciles à imaginer : les gouvernements qui interdisent l’homosexualité pourraient exiger que le classificateur soit formé pour restreindre le contenu LGBTQ+ apparent, ou un régime autoritaire pourrait exiger que le classificateur soit capable de repérer les images satiriques populaires ou les tracts de protestation. » L’EFF a ajouté qu’avec iMessage pour commencer à scanner les images envoyées et reçues, la plateforme de communication n’était plus chiffrée de bout en bout. « Apple et ses partisans peuvent prétendre que le balayage avant ou après le chiffrement ou le déchiffrement d’un message maintient intacte la promesse ‘de bout en bout’, mais il s’agirait d’une manœuvre sémantique visant à dissimuler un changement tectonique dans la position de l’entreprise à l’égard du chiffrement fort », a déclaré la fondation.

L’approche d’Apple critiquée par le responsable de WhatsApp

Will Cathcart, le directeur de WhatsApp, a déclaré que la plateforme appartenant à Facebook n’adopterait pas l’approche d’Apple et s’appuierait plutôt sur les rapports des utilisateurs. « Il s’agit d’un système de surveillance construit et exploité par Apple qui pourrait très facilement être utilisé pour analyser le contenu privé afin de trouver tout ce qu’ils, ou un gouvernement, décident de contrôler. Les pays où les iPhones sont vendus auront des définitions différentes de ce qui est acceptable », a déclaré Will Cathcart.

Le chef de WhatsApp a demandé comment le système fonctionnerait en Chine, et ce qui se passerait une fois qu’une équipe de logiciels d’espionnage aurait compris comment exploiter le système.

WhatsApp scanne les images non chiffrées – telles que les photos de profil et de groupe – à la recherche de matériel pédopornographique. « Nous disposons d’une technologie supplémentaire pour détecter de nouvelles images d’exploitation d’enfants inconnues dans ces informations non chiffrées. Nous utilisons également des classificateurs de machine learning pour analyser les surfaces textuelles, telles que les profils d’utilisateurs et les descriptions de groupes, et pour évaluer les informations et le comportement des groupes afin de détecter les cas suspects d’abus pédopornographiques », a déclaré la société.

Edward Snowden alerte sur les dérives possibles

L’ancien CSO de Facebook, Alex Stamos, a pour sa part déclaré qu’il était heureux de voir Apple assumer la responsabilité des impacts de sa plateforme, mais a remis en question l’approche adoptée. « Ils ont fait avancer les choses sur le plan technique tout en nuisant à l’effort global pour trouver un équilibre réglementaire », a déclaré Alex Stamos.

« L’un des problèmes fondamentaux de l’approche d’Apple est qu’ils semblent désespérés d’éviter de construire une véritable fonction de confiance et de sécurité pour leurs produits de communication. Il n’existe aucun mécanisme permettant de signaler les spams, les menaces de mort, les discours haineux, ou tout autre type d’abus sur iMessage. »

Au lieu de son « balayage non consensuel des photos locales, et de la création de ML côté client qui ne fournira pas beaucoup de prévention réelle des dommages », Alex Stamos a déclaré qu’il aurait préféré qu’Apple ait des rapports robustes dans iMessage, qu’elle ait une équipe de sécurité des enfants pour enquêter sur les rapports, et qu’elle déploie lentement le machine learning côté client.

Le lanceur d’alerte Edward Snowden a accusé Apple de déployer une surveillance de masse dans le monde entier. « Ne vous y trompez pas : s’ils peuvent rechercher du porno pour enfants aujourd’hui, ils peuvent rechercher n’importe quoi demain », a-t-il déclaré.

Source : ZDNet.com

Leave a Reply

Discover more from Ultimatepocket

Subscribe now to keep reading and get access to the full archive.

Continue reading