Le contrôle de sécurité dans iOS 16 permet aux victimes d’abus de reprendre le contrôle

Cette histoire fait partie WWDC 2022Couverture complète par Crumpe de et sur la conférence annuelle des développeurs d’Apple.

Quoi de neuf

Apple a annoncé une nouvelle fonctionnalité de vérification de sécurité pour aider les victimes potentielles dans des relations abusives.

en quoi est-ce important

Il s’agit du dernier exemple de l’industrie technologique confrontée à des questions technologiques personnelles difficiles qui n’ont pas de réponses claires ou faciles.

Quelle est la prochaine

Apple contacte les organisations de défense des victimes et des survivants pour identifier d’autres ressources susceptibles d’aider les personnes en crise.

Parmi les nouvelles fonctionnalités demandées depuis longtemps et populaires qu’Apple prévoit d’apporter à l’iPhone cet automne, telles que annuler les SMS et les e-mails iMessage ainsi qu’une fonction pour trouver et supprimer les photos en doublece n’est pas seulement une commodité – l’utiliser peut signifier la vie ou la mort.

Lundi, Apple a annoncé le contrôle de sécurité, une nouvelle fonctionnalité dans les paramètres d’un iPhone ou d’un iPad, visant à aider les victimes de violence domestique. Le paramètre, qui arrivera cet automne avec iOS 16, est conçu pour aider quelqu’un à rompre rapidement les liens avec un attaquant potentiel. Pour ce faire, Security Scan aide une personne à voir rapidement avec qui elle partage automatiquement des informations sensibles, telles que l’emplacement ou des photos. Mais en cas d’urgence, cela permet également à une personne de désactiver simplement et rapidement l’accès et le partage d’informations à tous les appareils autres que ceux qui sont entre ses mains.

Notamment, l’application comprend également un bouton bien en vue dans le coin supérieur droit de l’écran appelé Quick Exit. Comme son nom l’indique, il est conçu pour aider une victime potentielle à cacher rapidement qu’elle regardait le contrôle de sécurité au cas où l’attaquant ne lui permettrait pas la confidentialité. Si l’attaquant rouvre l’application des paramètres, où le contrôle de sécurité est conservé, il commencera à la page des paramètres généraux par défaut, couvrant efficacement les traces de la victime.

“De nombreuses personnes partagent des mots de passe et l’accès à leurs appareils avec un partenaire”, a déclaré lundi Katie Skinner, responsable de l’ingénierie de la confidentialité chez Apple, lors de l’événement WWDC de l’entreprise. “Cependant, dans les relations abusives, cela peut menacer la sécurité personnelle et rendre plus difficile pour les victimes d’obtenir de l’aide.”

Le contrôle de sécurité et la manière minutieuse dont il a été codé font partie d’un effort plus large des entreprises technologiques pour empêcher que leurs produits ne soient utilisés comme outils d’abus. C’est aussi le dernier signe de la volonté d’Apple d’investir dans la technologie du bâtiment pour aborder des sujets sensibles. Et bien que la société se dise sérieuse dans son approche, elle a été critiquée pour certaines de ses actions. L’année dernière, la société a annoncé des efforts pour détecter les images d’exploitation d’enfants sur certains de ses téléphones, tablettes et ordinateurs, une décision que les critiques craignaient. pourrait éroder l’engagement d’Apple en matière de confidentialité.

Pourtant, les défenseurs des victimes affirment qu’Apple est l’une des rares grandes entreprises à travailler publiquement sur ces questions. Alors que de nombreux géants de la technologie, dont Microsoft, Facebook, Twitter et Google, ont construit et mis en œuvre conçu pour détecter les images abusives et le comportement sur leurs sites respectifs, ils se sont efforcés de créer des outils qui empêchent les abus au fur et à mesure qu’ils se produisent.

Malheureusement, la maltraitance s’est aggravée. Une enquête de novembre 2020 auprès de professionnels travaillant dans le domaine de la violence domestique a révélé que 99,3% avaient des clients qui avaient été victimes de “harcèlement et d’abus facilités par la technologie”, selon le Women’s Services Network, qui a travaillé sur le rapport avec l’Université Curtin, en Australie. De plus, les organisations ont appris que le GPS Le suivi des victimes a augmenté de plus de 244 % depuis la dernière enquête en 2015.

Au milieu de tout cela, des entreprises technologiques comme Apple ont de plus en plus travaillé avec des organisations de victimes pour comprendre comment leurs outils peuvent être mal utilisés par un criminel et utiles à une victime potentielle. Le résultat est des fonctionnalités telles que le bouton Safety Check Quick Exit, qui, selon les partisans, est un signe qu’Apple développe ces fonctionnalités d’une manière qu’ils appellent “informée par les traumatismes”.

“La plupart des gens ne peuvent pas apprécier le sentiment d’urgence” que de nombreuses victimes ont, a déclaré Renee Williams, directrice exécutive du National Center for Victims of Crime. “Apple a été très réactif.”

Apple affirme qu’il y a plus d’un milliard d’iPhones utilisés dans le monde.

Apple/Capture d’écran par CNET

problèmes difficiles

Certaines des plus grandes victoires de l’industrie technologique sont venues de l’identification des intimidateurs. En 2009, Microsoft a aidé à créer un logiciel de reconnaissance d’images appelé PhotoDNA, qui est maintenant utilisé par les réseaux sociaux et les sites Web du monde entier pour identifier les images d’abus d’enfants lorsqu’elles sont téléchargées sur Internet. Depuis lors, des programmes similaires ont été créés pour aider à identifier vidéos de recrutement terroristeflux en direct de fusillades de masse et d’autres choses que les grandes entreprises technologiques essaient de garder hors de leurs plates-formes.

Comme la technologie est devenue plus omniprésente dans nos vies, ces efforts ont pris une plus grande importance. Et contrairement à l’ajout d’une nouvelle technologie vidéo ou à l’amélioration des performances d’un ordinateur, ces questions sociales n’ont pas toujours de réponses claires.

En 2021, Apple a fait l’un de ses premiers pas publics dans la technologie axée sur les victimes en annonçant de nouvelles fonctionnalités pour son service iMessage, conçu pour analyser les messages envoyés aux utilisateurs étiquetés comme enfants pour déterminer si vos pièces jointes contenaient de la nudité. Si le système suspectait une image, il brouillerait la pièce jointe et avertirait la personne qui la recevait pour s’assurer qu’elle voulait la voir. Le service d’Apple dirigerait également les enfants vers des ressources qui pourraient les aider s’ils étaient victimes du service.

À l’époque, Apple avait déclaré avoir conçu la technologie d’analyse des messages en tenant compte de la confidentialité. Mais les militants craignent que le système d’Apple ait également été conçu pour alerter un parent identifié si son enfant choisit de toute façon de voir l’image jointe suspecte. Selon certains critiques, cela pourrait inciter un parent potentiellement dangereux à être maltraité.

Les efforts supplémentaires d’Apple pour détecter d’éventuelles séquences d’abus d’enfants qui pourraient être synchronisées avec son service photo via des iPhones, des iPads et des ordinateurs Mac ont été critiqués par des experts en sécurité qui craignait qu’il puisse être utilisé à mauvais escient.

Pourtant, les défenseurs des victimes ont reconnu qu’Apple était l’une des rares sociétés d’appareils à travailler sur des outils visant à soutenir les victimes d’abus potentiels. Microsoft et Google n’ont pas répondu aux demandes de commentaires pour savoir s’ils prévoyaient d’introduire des fonctionnalités similaires à Safety Check pour aider les victimes qui pourraient utiliser des logiciels Windows et Xbox pour PC et consoles de jeux vidéo ou des logiciels mobiles Android pour téléphones et tablettes.

iPhone affichant des messages sur la sécurité des enfants

Apple a introduit un système de sécurité pour enfants dans iMessages l’année dernière.

Litière

Apprendre, mais beaucoup à faire

L’industrie technologique travaille avec des organisations de victimes depuis plus d’une décennie à la recherche de moyens d’adopter des mentalités de sécurité dans leurs produits. Les partisans disent que ces dernières années, en particulier, de nombreux les équipes de sécurité se sont agrandies au sein des géants de la tech, composés dans certains cas de personnes issues du monde associatif travaillant sur les problématiques de l’industrie tech.

Apple a commencé à consulter certains défenseurs des droits des victimes au sujet du contrôle de sécurité l’année dernière, demandant des informations et des idées sur la meilleure façon de construire le système.

“Nous commençons à voir la reconnaissance qu’il existe une responsabilité d’entreprise ou sociale pour s’assurer que vos applications ne sont pas simplement utilisées à mauvais escient”, Karen Bentley, PDG de Wesnet. Et elle a dit que c’est particulièrement difficile car, à mesure que la technologie a évolué pour devenir plus facile à utiliser, elle a également le potentiel d’être un outil d’abus.

C’est pourquoi elle dit que le contrôle de sécurité d’Apple est “génial” car il peut séparer rapidement et facilement les informations et communications numériques d’une personne de son agresseur. “Si vous êtes victime de violence domestique, il y a de fortes chances que vous subissiez une partie de cette violence dans la technologie”, a-t-elle déclaré.

Alors que Safety Check est passé d’une idée à un logiciel de test et sera largement disponible avec le package iOS 16 de mises à jour logicielles pour iPhone et iPad à l’automne, Apple a déclaré qu’il prévoyait de travailler davantage sur ces problèmes.

Malheureusement, Safety Check ne s’étend pas aux moyens par lesquels les agresseurs peuvent suivre les personnes utilisant des appareils qu’ils n’ont pas – comme si quelqu’un mettait l’un des trackers AirTag d’Apple à 29 $ dans la poche de son manteau ou sa voiture pour les chasser. Le contrôle de sécurité n’est pas non plus conçu pour les téléphones configurés sur des comptes enfants, pour les personnes de moins de 13 ans, bien que la fonctionnalité soit toujours en test et puisse changer.

«Malheureusement, les intimidateurs sont persistants et mettent constamment à jour leurs tactiques», a déclaré Erica Olsen, directrice de projet pour Safety Net, un programme du réseau national pour mettre fin à la violence domestique qui forme les entreprises, les groupes communautaires et les gouvernements sur la façon d’améliorer la sécurité. intimité. . “Il y aura toujours plus à faire dans cet espace.”

Apple a déclaré qu’il élargissait la formation de ses employés qui interagissent avec les clients, y compris les vendeurs de ses magasins, pour apprendre comment fonctionnent des fonctionnalités telles que Safety Check et pouvoir l’enseigner le cas échéant. La société a également créé des lignes directrices pour son équipe de soutien afin d’aider à identifier et à aider les victimes potentielles.

Dans un cas, par exemple, les équipes AppleCare apprennent à écouter lorsqu’un propriétaire d’iPhone appelle en craignant qu’il n’ait aucun contrôle sur son propre appareil ou son propre compte iCloud. Dans un autre, AppleCare peut guider quelqu’un sur la façon de supprimer son identifiant Apple d’un groupe familial.

Apple a également mis à jour son guide d’utilisation de la sécurité personnelle en janvier pour indiquer aux utilisateurs comment réinitialiser et reprendre le contrôle d’un compte iCloud qui pourrait être compromis ou utilisé comme outil d’abus.

Craig Federighi, responsable de l’ingénierie logicielle chez Apple, a déclaré que la société continuerait à développer ses capacités de sécurité personnelle dans le cadre de son engagement accru envers ses clients. “Vous protéger, vous et votre vie privée, est et sera toujours au cœur de ce que nous faisons”, a-t-il déclaré.

Leave a Comment