Apple a annoncé que la prochaine version d’iOS à partir de la version 15 vérifiera automatiquement les messages envoyés par des enfants, et analysera les photos des utilisateurs dans iCloud afin de rechercher la pornographie enfantine et d’empêcher la distribution de tels fichiers. L’initiative a été accueillie par des protestations massives dans les pays occidentaux. Les tabloïdes reprochent à la société de vouloir pirater les téléphones et les photos privées des utilisateurs sous des prétextes plausibles.
Sergey Kuzmenko, spécialiste principal des tests de produits numériques au Centre d’expertise numérique de Roskatchestvo :
« Le problème de l’exploitation sexuelle des enfants qu’Apple tente de résoudre est très grave et aigu, tant aux États-Unis que dans le reste du monde. En outre, la mise en œuvre de la technologie d’analyse d’image – du moins telle qu’elle est actuellement décrite par la société – implique une confidentialité et une sécurité maximales pour les propriétaires d’appareils Apple. ».
Pour autant que l’on puisse comprendre, cela fonctionnera de cette manière :
1 La société vérifiera, au stade de la messagerie, si un enfant envoie une photo sincère à quelqu’un, puis affichera plusieurs avertissements et préviendra les parents. La protection des enfants dans iMessage ne fonctionnera que sur les comptes familiaux avec des enfants de 12 ans ou moins, et devra être activée manuellement. Aucune information ne sera partagée avec les autorités.
2 Siri et Search fourniront aux services de recherche des listes de mots de code et de requêtes liés à la pédopornographie, et les utilisateurs qui effectuent de telles requêtes recevront une plaque d’avertissement signalant le préjudice causé par ces intérêts et des liens vers des sites web partenaires pour obtenir de l’aide. Il reste à savoir si ces demandes seront transmises aux autorités.
3 La partie la plus scandaleuse : lors du téléchargement de photos sur iCloud si la fonction est activée, cela se fait automatiquement , le réseau neuronal de la société va scanner les photos avant de les télécharger et les comparer à la base de données existante sur la pédopornographie. Les photos seront alors hachées c’est-à-dire converties en une séquence de symboles que personne d’autre ne peut déchiffrer et l’algorithme les comparera à la base de données, qui se compose également de chaînes de symboles similaires. Le processus est automatique, et ce n’est que s’il y a une correspondance avec des échantillons connus qu’un modérateur humain interviendra.
4 Dans le cas où il s’avère qu’un utilisateur a connu des images en plusieurs exemplaires ou que l’incident de téléchargement de telles photos se répète, Apple se réserve le droit de remettre ses données aux autorités compétentes. La société souligne que si un utilisateur a désactivé le téléchargement, le système ne fonctionnera pas, et que la fonction ne vérifie pas la photothèque privée de l’appareil.
Bien entendu, des questions subsistent quant à la mesure dans laquelle la société respectera les règles de confidentialité qu’elle a énoncées, quant à savoir si la technologie de reconnaissance est réellement infaillible et quant à savoir si elle sera utilisée à d’autres fins à l’avenir. Dans sa forme actuelle, cependant, le système de reconnaissance des comptes de pédophiles potentiels est considéré comme un avantage.
Notez également que cette fonctionnalité n’est lancée qu’aux États-Unis et qu’elle sera introduite progressivement dans d’autres pays, en fonction du cadre juridique local.
Quel est le scandale dont parle Roskachevo concernant Apple ? J’aimerais en savoir plus sur cette situation. Quelles sont les informations ou les détails spécifiques à ce sujet ? Merci d’avance pour vos réponses !
Quel est exactement le scandale dont Roskachevo a commenté à propos d’Apple ? Je suis curieux de connaître les détails et les implications de cette affaire. Pouvez-vous fournir plus d’informations sur ce sujet ?
Quel est le scandale dont parle Roskachevo concernant Apple ?