Les nouvelles fonctionnalités phares
Apple a présenté aujourd’hui de nombreuses nouvelles fonctionnalités d’accessibilité qui seront disponibles plus tard cette année avec les mises à jour des logiciels iOS 18, iPadOS 18, macOS 15 et visionOS 2.
Cette annonce intervient à la veille de la Journée mondiale de sensibilisation à l’accessibilité.
L’une des principales nouveautés est le suivi du mouvement des yeux sur l’iPhone et l’iPad.
Cette technologie permet aux utilisateurs de naviguer dans les interfaces et applications en utilisant uniquement leurs yeux.
Grâce à l’intelligence artificielle, le suivi des yeux utilise la caméra frontale pour se configurer et se calibrer en quelques secondes.
Toutes les données restent sur l’appareil, garantissant ainsi la confidentialité.
Un autre ajout significatif est les haptiques musicales. Cette fonctionnalité permet aux utilisateurs sourds ou malentendants de ressentir la musique par des vibrations et des textures raffinées synchronisées avec l’audio.
Les haptiques musicales fonctionneront sur l’ensemble du catalogue Apple Music et seront disponibles sous forme d’API pour les développeurs.
Les raccourcis vocaux permettront aux utilisateurs d’iPhone et d’iPad d’attribuer des « expressions personnalisées » que Siri pourra comprendre pour lancer des raccourcis et réaliser des tâches complexes.
Quant aux indices de mouvement du véhicule, ils aideront à réduire le mal des transports en affichant des points animés sur les bords de l’écran qui reflètent les changements de mouvement du véhicule.
Accessibilité dans CarPlay et Vision Pro
CarPlay, le système d’infodivertissement automobile d’Apple, bénéficiera de la commande vocale, de filtres de couleurs et de la reconnaissance sonore.
La reconnaissance sonore permettra aux conducteurs ou aux passagers sourds ou malentendants de recevoir des alertes sur les klaxons et les sirènes.
Les utilisateurs de Mac pourront personnaliser les raccourcis clavier de VoiceOver et bénéficier du support en mandarin pour la voix personnelle.
Le Vision Pro, quant à lui, offrira des sous-titres en direct sur l’ensemble du système, une transparence réduite, l’inversion intelligente et la réduction des lumières clignotantes.
Une compréhension approfondie des nouvelles fonctionnalités d’accessibilité
L’une des technologies les plus innovantes est sans doute le suivi des yeux.
Il s’agit d’un avancement majeur pour les personnes avec des handicaps physiques, leur permettant de contrôler leur appareil sans avoir besoin d’un matériel supplémentaire.
En exploitant les algorithmes de machine learning, cette technologie rend les appareils Apple encore plus intuitifs et inclusifs.
Pour ceux ayant des limitations auditives, les haptiques musicales représentent une nouvelle façon d’interagir avec la musique, en ressentant les rythmes et les mélodies à travers des vibrations.
Cette approche multidimensionnelle peut transformer l’expérience auditive en une expérience tactile.
Les raccourcis vocaux ajoutent également une dimension nouvelle d’interactivité avec Siri.
En permettant une personnalisation plus poussée, cette fonctionnalité peut simplifier considérablement l’accès à certaines fonctions pour les personnes ayant des difficultés à utiliser un écran tactile ou un clavier.
Pour le Vision Pro, les sous-titres en direct permettront une meilleure inclusion des personnes malentendantes.
Cela garantit qu’ils ne manqueront aucune information pendant un appel vidéo ou lors de l’utilisation d’applications audio.
La diversité des nouveaux outils d’accessibilité montre l’engagement d’Apple envers une inclusion plus large.
Chaque fonctionnalité vise à répondre à des besoins spécifiques, rendant la technologie plus accessible et plus facile à utiliser pour tous.
En somme, Apple continue de repousser les limites de l’innovation en matière d’accessibilité.
Avec ces nouvelles fonctionnalités, la marque s’efforce de rendre la technologie plus inclusive, facilitant l’utilisation de ses appareils par les personnes présentant divers types de handicaps.
La sortie de ces mises à jour est prévue pour plus tard dans l’année, conformément à l’annonce faite lors de la conférence des développeurs, WWDC, le 10 juin.
Ces avancées promettent des expériences utilisateur enrichies et plus équitables pour une vaste gamme d’utilisateurs.
Avec ces nouvelles fonctions, l’engagement d’Apple envers l’accessibilité franchit un nouveau cap, soulignant que la technologie doit être inclusive et accessible à tous, peu importe les capacités physiques ou sensorielles.
Données biométriques : vers une sécurité renforcée mais vulnérable
Avec l’introduction du suivi du mouvement des yeux sur les appareils Apple, une nouvelle dimension de risque en cybersécurité apparaît.
Bien que toutes les données soient traitées sur l’appareil, minimisant les risques de violation de la vie privée, le fait que cette technologie repose sur des données biométriques crée de nouvelles préoccupations.
Si des cybercriminels parviennent à contourner ces mesures de sécurité, ils pourraient potentiellement accéder à des informations sensibles ou utiliser ces données à des fins malveillantes, comme usurper l’identité de l’utilisateur.
L’impact pour une personne ou une entreprise peut être significatif, allant de la perte de données personnelles à des attaques ciblées exploitant ces informations biométriques.
Précautions à prendre pour sécuriser ses données biométriques
Pour se prémunir contre ces risques, il est essentiel de maintenir à jour les appareils avec les dernières mises à jour de sécurité proposées par Apple.
L’activation de l’authentification à deux facteurs (2FA) offre une couche de protection supplémentaire.
Il est également conseillé de surveiller l’utilisation des outils biométriques et de limiter leur usage aux applications véritablement nécessaires.
Enfin, adopter des pratiques de sécurité numérique de base, comme utiliser des mots de passe robustes et différents pour chaque compte, contribuent à renforcer la sécurité des informations biométriques.
