Sta diventando una piccola, piacevole abitudine. Ogni anno, alla vigilia della Giornata mondiale dell’Accessibilità, Apple annuncia una serie di novità per i suoi prodotti. Non novità a pagamento o prodotti commerciali, ma soluzioni che permettono di rendere un po’ più facile l’utilizzo dei dispositivi dell’azienda alle persone che hanno difficoltà a utilizzarli normalmente. E che danno il via in maniera non ufficiale alla stagione delle novità software, che vengono annunciate durante la WWDC di giugno.
Apple porta avanti da decenni il tema dell’accessibilità. L’azienda nel tempo ha ideato soluzioni che hanno reso più semplice la vita a molte persone che volessero utilizzare i suoi computer, software e servizi, sin dal primo Macintosh di quarant’anni fa. Quest’anno, l’azienda ha annunciato un pacchetto di novità consistente, che sarà disponibile più avanti: forse già nelle attuali versioni dei suoi sistemi operativi o forse in quelle che verranno annunciate a giugno durante la WWDC e poi rilasciate tradizionalmente a settembre.
Si tratta di una serie di funzioni che lasciano tra le altre cose intuire quali saranno le potenzialità dei nuovi sistemi operativi di Apple perché sfruttano i processori di iPhone, iPad e Mac, con l’intelligenza artificiale, l’apprendimento automatico e le novità di interfaccia. Coinvolgendo per la prima volta anche visionOS, il sistema operativo del visore Vision Pro.
Le novità per la vista e il movimento
La prima e forse più sorprendente è la funzione di Eye Tracking, che consentirà di controllare iPad o iPhone con gli occhi. Questo sistema di tracciamento del movimento degli occhi verrà effettuato trasversalmente sull’interfaccia del sistema operativo ma anche di tutte le applicazioni e quindi non richiede alcuna modifica da parte dei programmatori delle singole app.
Inoltre, Apple ha preparato anche Vocal Shortcuts, che permetterà agli utenti di far eseguire alcune operazioni ai dispositivi tramite comandi vocali specifici. Apple, utilizzando il machine learning, ha anche lavorato molto sulla capacità dei suoi device di riconoscere tipi diversi di pronuncia dei comandi, anche molto distorta o gergale.
Inoltre, con Vehicle Motion Cues, Apple offre la prima soluzione, trasversale a tutte le app di iPhone e iPad, per cercare di limitare il mal d’auto per chi sta usando gli apparecchi su un veicolo in movimento. Sempre sui veicoli, la nuova generazione di CarPlay permette di portare controllo della voce, filtro dei colori e riconoscimento dei suoni per i passeggeri. Inoltre, assieme all’aiuto per le persone daltoniche che spesso hanno difficoltà a riconoscere segnali e differenze di segni sulle mappe, arrivano anche miglioramenti all’interfaccia, riprogettata per evidenziare meglio le scritte.
Sottotitoli nella realtà aumentata
Il Vision Pro acquista anch’esso funzioni di accessibilità che arricchiscono notevolmente il funzionamento, per esempio per le persone che non sentono o hanno difficoltà a sentire: una funzione di sottotitolazione automatica permetterà di aggiungere un fumetto accanto alle persone che stanno parlando con la trascrizione di quello che dicono. Questo funzionerà sia nelle comunicazioni dal vivo sia nelle videoconferenze o con i video registrati. Inoltre, sarà possibile modificare la luminosità ambientale, le luci lampeggianti e i colori per rendere l’ambiente più confortevole agli utenti.
Ancora: la funzione Music Haptics farà vibrare il telefono a ritmo di musica, consentendo alle persone che non sentono di percepire in qualche modo la melodia. La funzionalità sarà disponibile per Musica, il servizio di streaming musicale a pagamento di Apple, e come risorsa che potrà essere integrata dagli sviluppatori anche nelle app di terze parti come Spotify e Amazon Music Prime.
Infine, sono migliorate ancora le altre funzionalità di riconoscimento delle immagini, di ingrandimento, della compatibilità con hardware per la scrittura e la lettura in Braille, funzioni di creazione delle Personal Voice sintetizzate a partire da brevi campioni vocali di un utente (adesso anche in cinese mandarino), un nuovo sistema di riconoscimento della tastiera virtuale, di trackpad virtuale su iPad, di controllo vocale e di switch tra videocamere di iPhone e iPad.
Apple organizza anche una serie di incontri in alcuni suoi negozi per spiegare il funzionamento di queste tecnologie, oltre a presentare altre attività rilevanti come la campagna Assume that I can di Coordown che combatte i pregiudizi sulla sindrome di Down e che fa parte della serie Riprogettiamo il mondo dedicata all’accessibilità. La presentazione dello spot da parte dei suoi ideatori e produttori è fissata a Milano, nell’Apple Store di Piazza Liberty, giovedì 16 maggio alle 18.30.
Fonte : Repubblica