IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Apple introduit une nouvelle fonctionnalité permettant à votre iPhone de parler avec votre voix après 15 minutes d'entraînement,
D'autres fonctions d'accessibilité ont également été introduites

Le , par Bill Fassinou

3PARTAGES

2  0 
Apple a présenté mardi en avant-première de nouvelles fonctionnalités destinées à améliorer l'accessibilité cognitive, visuelle et vocale des appareils iOS. Ces nouvelles fonctionnalités incluent la fonction Personal Voice destinée aux personnes susceptibles de perdre l'usage de la parole. Elle leur permet de créer une voix synthétisée qui leur ressemble pour parler avec des amis ou des membres de la famille. La firme de Cupertino a déclaré que ces fonctionnalités ont été conçues en tenant compte des commentaires des communautés de personnes handicapées. Ces outils devraient arriver sur l'iPhone, l'iPad et les ordinateurs Mac dans le courant de l'année.

Apple est leader reconnu dans le domaine de l'accessibilité des technologies grand public. Selon la firme de Cupertino, les mises à jour présentées mardi s'appuient sur des avancées matérielles et logicielles, incluent l'apprentissage automatique sur l'appareil pour garantir la confidentialité de l'utilisateur et s'inscrivent dans le cadre de l'engagement de longue date d'Apple à fabriquer des produits pour tous. Apple affirme avoir travaillé en collaboration avec des groupes communautaires représentant un large éventail d'utilisateurs handicapés pour développer ces fonctionnalités d'accessibilité. Elles incluent Assistive Access, Personal Voice, Point and Speak, etc.

Assistive Access est conçu pour les personnes souffrant de troubles cognitifs. L'outil rationalise l'interface de l'iPhone et de l'iPad, en s'attachant tout particulièrement à faciliter les conversations avec les proches, le partage des photos et l'écoute de la musique. Les applications Téléphone et FaceTime sont fusionnées en une seule, par exemple. Le design est rendu plus digeste par l'intégration de grandes icônes, un contraste accru et des libellés plus clairs pour simplifier l'écran. Toutefois, l'utilisateur peut personnaliser ces caractéristiques visuelles à sa guise, et ces préférences se retrouvent dans toutes les applications compatibles avec Assistive Access.


Pour les personnes qui risquent de perdre leur capacité à parler - comme les personnes qui ont récemment reçu un diagnostic de SLA (sclérose latérale amyotrophique) ou d'autres maladies qui peuvent avoir un impact progressif sur la capacité à parler - Personal Voice est un moyen simple et sûr de créer une voix qui leur ressemble. Pour générer une voix personnelle, l'utilisateur doit passer environ 15 minutes à lire clairement dans son microphone des textes choisis au hasard. Selon l'entreprise, la fonction utilise ensuite l'apprentissage automatique pour traiter l'audio localement sur votre iPhone, iPad ou Mac afin de créer votre voix personnelle.

Cela ressemble à ce que fait Acapela avec son service "ma propre voix", qui fonctionne avec d'autres dispositifs d'assistance. Il est facile de comprendre comment un référentiel de modèles de synthèse vocale uniques et hautement entraînés pourrait être dangereux entre de mauvaises mains. Mais selon Apple, ces données vocales personnalisées ne sont jamais partagées avec qui que ce soit, même avec Apple elle-même. En fait, dans un billet de blogue publié mardi, Apple affirme qu'il ne relie même pas l'enregistrement de votre voix personnelle à votre identifiant Apple, comme certains ménages pourraient le faire avec un identifiant de connexion.

Au lieu de cela, les utilisateurs doivent choisir l'option d'accès s'ils souhaitent que la voix personnelle qu'ils utilisent sur leur Mac soit accessible sur leur iPhone, ou vice versa. Au lancement, Personal Voice ne sera disponible que pour les anglophones et ne pourra être créée que sur des appareils dotés d'un silicium Apple. Un autre outil d'accessibilité annoncé par Apple est la fonction "Point and Speak". Selon le billet de blogue d'Apple, la fonction Point and Speak utilise l'appareil photo et le scanner LiDAR de l'appareil pour aider les personnes aveugles et malvoyantes à interagir avec des objets physiques comportant plusieurs étiquettes de texte.

Par conséquent, si un utilisateur malvoyant souhaite réchauffer un plat au micro-ondes, il peut utiliser l'outil Point and Speak pour faire la différence entre les boutons "pop-corn", "pizza" et "niveau de puissance". Lorsque l'appareil identifie ce texte, il le lit à haute voix. Selon l'entreprise, la fonction Point and Speak sera disponible dans les langues : anglais, français, italien, allemand, espagnol, portugais, chinois, cantonais, coréen, japonais et ukrainien. Dans le cadre de l'outil Magnifier existant, les utilisateurs aveugles et malvoyants peuvent déjà utiliser leur téléphone pour localiser des portes, des personnes ou des panneaux à proximité.

Que vous parliez en tant que Siri ou votre jumeau vocal IA, Apple facilite la communication pour les personnes non verbales. La fonctionnalité Live Speech, disponible sur tous les appareils Apple, permet de taper ce que l'on veut dire pour qu'il soit prononcé à haute voix. L'outil est disponible sur l'écran de verrouillage, mais il peut également être utilisé dans d'autres applications, comme FaceTime. De plus, il permet d'automatiser les commandes répétitives. Si les utilisateurs ont souvent besoin de répéter les mêmes phrases - comme une commande de café, par exemple -, ils peuvent enregistrer des phrases prédéfinies dans Live Speech.

Les outils existants de synthèse vocale d'Apple bénéficient également d'une mise à jour. Désormais, la commande vocale intégrera l'édition phonétique du texte, ce qui permettra aux personnes qui tapent à la voix de corriger rapidement les erreurs. Par exemple, si vous voyez votre ordinateur transcrire "super" alors que vous vouliez dire "gris", il sera plus facile de faire la correction. Cette fonctionnalité, les suggestions phonétiques, sera disponible dans un premier temps dans les langues : anglais, espagnol, français et allemand. La firme de Cupertino a également mis en avant un certain nombre d'autres fonctionnalités à venir sur les ordinateurs Mac.

Il s'agit notamment d'une fonctionnalité permettant aux utilisateurs sourds ou malentendants de coupler les appareils auditifs "Made for iPhone" avec un Mac. Apple a également l'arrivée d'un outil plus simple pour ajuster la taille du texte dans le Finder, Messages, Mail, Calendrier et Notes sur Mac. Les utilisateurs pourront également mettre en pause les GIF dans Safari et Messages, personnaliser la vitesse à laquelle Siri leur parle et utiliser la commande vocale pour obtenir des suggestions phonétiques lors de l'édition de texte. Toutes ces fonctionnalités s'appuient sur les fonctions d'accessibilité existantes d'Apple pour le Mac et l'iPhone.

« L'accessibilité fait partie de tout ce que nous faisons chez Apple. Ces fonctionnalités révolutionnaires ont été conçues en tenant compte des commentaires des membres des communautés de personnes handicapées à chaque étape du processus, afin de prendre en charge un ensemble diversifié d'utilisateurs et d'aider les gens à se connecter d'une nouvelle manière », a déclaré Sarah Herrlinger, directrice principale de la politique et des initiatives mondiales en matière d'accessibilité chez Apple. Le travail sur un "mode d'accessibilité personnalisé" a été repéré à la fin de l'année dernière dans une version bêta d'iOS 16.2.

Apple indique que ces fonctionnalités arriveront "plus tard dans l'année", ce qui suggère qu'elles pourraient faire partie d'iOS 17. En ce qui concerne ses offres existantes, Apple étend l'accès à SignTime à l'Allemagne, l'Italie, l'Espagne et la Corée du Sud. SignTime propose aux utilisateurs des interprètes en langue des signes à la demande pour les clients de l'Apple Store et de l'Apple Support.

Source : Apple

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des fonctionnalités d'accessibilité annoncées par Apple ?

Voir aussi

Apple devrait autoriser le chargement latéral à partir d'iOS 17, mais cette fonctionnalité pourrait n'être disponible qu'en Europe, le DMA de l'UE contraint Apple à mettre en place ce changement

Apple perd 1 000 Mds $ de valeur marchande en un an, sa capitalisation boursière passant sous les 2 000 Mds $. Le krash des entreprises technologiques semble se poursuivre en 2023

Apple s'apprête à annoncer son très attendu casque de réalité augmentée/réalité virtuelle au printemps 2023, le produit pourrait être disponible à l'automne de cette année

Une erreur dans cette actualité ? Signalez-nous-la !