IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Apple annonce de nouvelles fonctions d'accessibilité, dont le suivi oculaire, un moyen pour les utilisateurs de naviguer sur l'iPad et l'iPhone avec les yeux
L'haptique musicale et les raccourcis vocaux

Le , par Jade Emy

182PARTAGES

4  0 
Apple annonce de nouvelles fonctionnalités d'accessibilité, notamment le suivi oculaire, l'haptique musicale et les raccourcis vocaux. Ces nouvelles fonctionnalités reflètent l'engagement d'Apple à offrir la meilleure expérience possible à tous les utilisateurs.

Apple a annoncé de nouvelles fonctionnalités d'accessibilité qui seront disponibles dans le courant de l'année, notamment l'Eye Tracking (suivi oculaire), qui permettra aux utilisateurs souffrant d'un handicap physique de contrôler l'iPad ou l'iPhone avec leurs yeux. En outre, Music Haptics (haptique musicale) offrira aux utilisateurs sourds ou malentendants une nouvelle façon d'écouter de la musique grâce au Taptic Engine de l'iPhone ; Vocal Shortcuts (raccourcis vocaux) permettra aux utilisateurs d'effectuer des tâches en émettant un son personnalisé ; Vehicle Motion Cues (Repères de mouvement du véhicule) permettra de réduire le mal des transports lors de l'utilisation de l'iPhone ou de l'iPad dans un véhicule en mouvement ; et d'autres fonctionnalités d'accessibilité viendront s'ajouter à visionOS.

Ces fonctionnalités combinent la puissance du matériel et des logiciels Apple, en exploitant le silicium d'Apple, l'intelligence artificielle et l'apprentissage automatique, afin de poursuivre l'engagement pris par Apple depuis des décennies de concevoir des produits pour tout le monde.

"Nous croyons profondément au pouvoir de transformation de l'innovation pour enrichir la vie", a déclaré Tim Cook, PDG d'Apple. "C'est pourquoi, depuis près de 40 ans, Apple se fait le champion de la conception inclusive en intégrant l'accessibilité au cœur de son matériel et de ses logiciels. Nous repoussons sans cesse les limites de la technologie, et ces nouvelles fonctionnalités reflètent notre engagement de longue date à offrir la meilleure expérience possible à tous nos utilisateurs."

"Chaque année, nous innovons en matière d'accessibilité", déclare Sarah Herrlinger, directrice principale de la politique et des initiatives mondiales en matière d'accessibilité chez Apple. "Ces nouvelles fonctionnalités auront un impact sur la vie d'un large éventail d'utilisateurs, en leur offrant de nouvelles façons de communiquer, de contrôler leurs appareils et de se déplacer dans le monde."


Le suivi oculaire arrive sur l'iPad et l'iPhone

Grâce à l'intelligence artificielle, Eye Tracking offre aux utilisateurs une option intégrée pour naviguer sur l'iPad et l'iPhone à l'aide de leurs yeux. Conçu pour les utilisateurs souffrant d'un handicap physique, Eye Tracking utilise la caméra frontale pour se configurer et se calibrer en quelques secondes. Grâce à l'apprentissage automatique sur l'appareil, toutes les données utilisées pour configurer et contrôler cette fonctionnalité sont conservées en toute sécurité sur l'appareil et ne sont pas partagées avec Apple.

L'Eye Tracking fonctionne avec iPadOS et les applications iOS, et ne nécessite pas de matériel ou d'accessoires supplémentaires. Grâce au suivi oculaire, les utilisateurs peuvent naviguer dans les éléments d'une application et utiliser Dwell Control pour activer chaque élément, en accédant à des fonctions supplémentaires telles que des boutons physiques, des swipes et d'autres gestes uniquement avec leurs yeux.

L'haptique musicale rend les chansons plus accessibles

Music Haptics est un nouveau moyen pour les utilisateurs sourds ou malentendants de profiter de la musique sur l'iPhone. Lorsque cette fonction d'accessibilité est activée, le moteur Taptic de l'iPhone ajoute au son de la musique des tapotements, des textures et des vibrations raffinées. Music Haptics fonctionne avec des millions de chansons du catalogue Apple Music et sera disponible sous la forme d'une API permettant aux développeurs de rendre la musique plus accessible dans leurs applications.

De nouvelles fonctionnalités pour un large éventail d'expressions vocales

Avec les raccourcis vocaux, les utilisateurs d'iPhone et d'iPad peuvent attribuer des énoncés personnalisés que Siri peut comprendre pour lancer des raccourcis et accomplir des tâches complexes. La nouvelle fonctionnalité Listen for Atypical Speech (Écoute de la parole atypique) permet aux utilisateurs d'améliorer la reconnaissance vocale pour une plus grande variété de discours. Listen for Atypical Speech utilise l'apprentissage automatique de l'appareil pour reconnaître les schémas vocaux de l'utilisateur.

Conçues pour les utilisateurs atteints de maladies acquises ou progressives qui affectent la parole, telles que la paralysie cérébrale, la sclérose latérale amyotrophique (SLA) ou les accidents vasculaires cérébraux, ces fonctionnalités offrent un nouveau niveau de personnalisation et de contrôle, en s'appuyant sur les fonctionnalités introduites dans iOS 17 pour les utilisateurs qui ne parlent pas ou qui risquent de perdre leur capacité à s'exprimer.

"L'intelligence artificielle a le potentiel d'améliorer la reconnaissance vocale pour des millions de personnes ayant une élocution atypique. Nous sommes donc ravis qu'Apple mette ces nouvelles fonctionnalités d'accessibilité à la disposition des consommateurs", a déclaré Mark Hasegawa-Johnson, chercheur principal du Speech Accessibility Project au Beckman Institute for Advanced Science and Technology de l'Université de l'Illinois Urbana-Champaign. "Le Speech Accessibility Project a été conçu comme un vaste effort soutenu par la communauté pour aider les entreprises et les universités à rendre la reconnaissance vocale plus robuste et plus efficace, et Apple fait partie des défenseurs de l'accessibilité qui ont rendu le Speech Accessibility Project possible."


Les repères de mouvement du véhicule peuvent aider à réduire le mal des transports

Vehicle Motion Cues est une nouvelle expérience pour iPhone et iPad qui peut aider à réduire le mal des transports pour les passagers de véhicules en mouvement. Les recherches montrent que le mal des transports est généralement causé par un conflit sensoriel entre ce qu'une personne voit et ce qu'elle ressent, ce qui peut empêcher certains utilisateurs d'utiliser confortablement l'iPhone ou l'iPad lorsqu'ils se trouvent dans un véhicule en mouvement.

Avec Vehicle Motion Cues, des points animés sur les bords de l'écran représentent les changements de mouvement du véhicule afin de réduire le conflit sensoriel sans interférer avec le contenu principal. Grâce aux capteurs intégrés à l'iPhone et à l'iPad,...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !