Depuis des années, Apple essaie de faire la confidentialité est un élément essentiel de sa marque. Le mot clé ici est « essayé », depuis de plusieurs enquêtes (dont un de Gizmodo) ont montré que l’entreprise ne tient pas toujours ses hautes promesses en de confidentialité. Conférence mondiale des développeurs, Apple a déployé plusieurs nouvelles fonctionnalités visant à offrir des protections numériques améliorées aux utilisateurs de MacOS, iOS et iPadOS.
Une fonctionnalité qui sera certainement populaire est un nouveau widget qui permet de « verrouiller »et/ou masquer des applications mobiles. Verrouillage d’un L’application le ferme à toute inspection extérieure et le seul moyen de le déverrouiller est via l’identification faciale d’une personne. Cette fonctionnalité permet également utilisateurs cacher applications, en les cachant dans un dossier caché. Les applications cachées peuvent également être verrouillées, ce qui les rend fondamentalement impénétrables pour l’observateur extérieur.
Cette fonctionnalité semble potentiellement utile mais aussi un peu drôle puis elle semble intentionnellement conçue pour permettre aux utilisateurs de s’en sortir avec des trucs louches. tromper votre femme ? Cacher Tinder à l’aide d’App Lock ! Vous souhaitez vendre de la drogue mais également maintenir un air de respectabilité sur l’écran de votre mobile ? Essayez App Lock ! Il convient également de noter que les téléphones Android offrent déjà fonctionnalité identique depuis des années.
La fonctionnalité de confidentialité la plus impressionnante sur le plan technique qu’Apple a déployée lundi est liée à son système d’intelligence artificielle récemment annoncé. Apple a lancé Apple Intelligence (ou IA) Lundi, une nouvelle suite d’IA générative qui extrait les données du téléphone, de la tablette ou de l’ordinateur d’un utilisateur pour offrir une assistance automatisée. Cependant, l’entreprise a reconnu le potentiel invasif de cette technologie, étant donné qu’elle s’appuie sur la totalité des activités numériques mobiles d’un utilisateur. pour informer son automatisation.
“Vous ne devriez pas avoir à confier tous les détails de votre vie pour les stocker et les analyser dans le cloud d’IA de quelqu’un”, a déclaré Craig. Federighi, vice-président senior de l’ingénierie logicielle d’Apple, lors de sa présentation sur le nouveau système. Federighi affirme que les nouveaux modèles d’IA d’Apple offrent « confidentialité puissante » par traiter les données « sur l’appareil », ce qui signifie qu’il n’est pas partagé avec Apple mais qu’il continue à circuler sur le téléphone ou l’ordinateur de l’utilisateur. L’intelligence est traitée sur l’appareil, et de nombreux modèles qui l’alimentent fonctionnent entièrement sur l’appareil », le l’entreprise dit.
Pour les modèles plus complexes et plus énergivores qui nécessitent plus de puissance de traitement, Apple affirme qu’il propose quelque chose appelé Private Cloud Compute, qui est un système. qui interagit avec le cloud d’Apple mais ne stocke pas les données des utilisateurs et protège les données via des défenses cryptographiques. De manière impressionnante, Apple a déclaré qu’il voulait Des « experts indépendants » pour inspecter cette nouvelle fonctionnalité et s’assurer qu’elle offre les protections qu’ils prétendent fournir. Puisqu’il y a un Beaucoup de choses qui sont encore inconnues sur le cloud computing privé et les autres fonctionnalités de confidentialité qu’Apple vient de lancer, une inspection extérieure semble être une excellente idée.