NAPOLI. Ci sono cose che si è abituati a dare per scontate: ad esempio muoversi, parlare, vedere, ascoltare, ricordare. Ma poi una malattia, un incidente, o anche solo l’avanzare dell’età costringono a considerare il mondo da una prospettiva diversa: quella di chi si muove con difficoltà, o non può parlare, vedere, ascoltare, fa fatica a comprendere o ricordare. Mettersi nei panni di queste persone è una sfida dura, forse impossibile, eppure provarci è necessario. Per se stessi, innanzitutto, perché significa fare i conti con un mondo molto diverso: indifferente, se va bene, più spesso ostile, limitante, discriminatorio. E vale la pena ricordarlo tutti i giorni, non solo il 3 dicembre, che dal 1981 è la Giornata mondiale delle persone con disabilità. Nel mondo oltre un miliardo di persone devono fare i conti con qualche tipo di disabilità, oltre i 65 anni la percentuale è del 40 per cento.
La tecnologia può giocare un ruolo importante: “Non c’è una soluzione unica per risolvere tutti i problemi”, dice Sarah Herrlinger, responsabile accessibilità di Apple. “Per noi la chiave è la personalizzazione. Nelle opzioni di personalizzazione dei nostri dispositivi, la sezione accessibilità è quella più ricca e dettagliata: è possibile adattarli alle esigenze di chiunque, e non necessariamente perché si identifica con una condizione medica specifica. Può essere un modo per migliorare la produttività, come aumentare la dimensione delle scritte perché si preferisce un font leggermente più grande. Io, ad esempio, porto gli occhiali e apprezzo enormemente questa possibilità, come pure la funzione Lente d’ingrandimento. Ognuno è unico e interagisce con la tecnologia in modi diversi. Perché allora non creare una varietà di opzioni che aiutino ciascuno di noi a utilizzare un dispositivo nel modo migliore possibile?”
Herrlinger è all’Apple Academy di San Giovanni a Teduccio, vicino Napoli, per incontrare gli studenti e le studentesse che imparano a creare app e illustrare loro le varie opzioni di accessibilità incluse nei sistemi operativi e come possano essere usate al meglio. Apple include opzioni di accessibilità nei suoi prodotti dal 1985, dai tempi del primo Mac. Fred, una delle voci che leggono i testi sullo schermo, è diventato anche il protagonista di un brano dei Radiohead, ma soprattutto ha semplificato la vita a milioni di persone con capacità visiva ridotta o nulla. Nel 2009, la terza versione dell’iPod Shuffle non aveva schermo, ma leggeva titoli e playlist tramite una voce sintetica. Non c’era più bisogno di pensare all’accessibilità, l’accessibilità era la base stessa su cui era costruita l’interfaccia. Nello stesso anno, Apple aggiornò anche iTunes, rendendolo compatibile con VoiceOver, la tecnologia di lettura dello schermo di OsX, e così anche le persone non vedenti potevano copiare e sincronizzare la musica tra Mac e iPod senza aiuti esterni. E VoiceOver arrivò pure sull’iPhone, con il 3GS del 2009: leggeva tutto quello che c’è sullo schermo, non solo i testi ma anche i comandi, e permetteva così di comandare il telefono usando solo la voce.
Un simile impegno ha successo solo se è portato avanti con coerenza, come spiega Herrlinger: se ad esempio in un’app il tasto Home non è chiamato così, il sistema dell’iPhone non riuscirà a leggerlo correttamente, e questo renderà l’app meno adatta ad essere utilizzata con il VoiceOver. Ci vuole, insomma, una certa rigidezza per arrivare alla massima flessibilità, quando si progetta qualcosa bisogna pensare all’accessibilità fin dall’inizio, non preoccuparsene alla fine come fosse una lista di caratteristiche da spuntare. E ci vuole anche dedizione: “Il lavoro del team accessibilità non è mai finito. Bisogna ricordarsi degli aggiornamenti, perché una volta che una comunità fa affidamento su di te, ti impegni a seguirla”, osserva Herrlinger. “Non lavoriamo per una comunità, ma con una comunità. Intanto, assumiamo persone con disabilità, sia in ambito aziendale che retail: abbiamo 150.000 dipendenti in tutto il mondo e integrando l’accessibilità nei nostri prodotti, possiamo far sì che ciascuno possa svolgere al meglio il proprio lavoro. Perciò i primi a usare le nostre tecnologie per migliorarle siamo noi. Poi collaboriamo con molte organizzazioni a livello globale. E naturalmente, c’è il feedback dei nostri clienti: abbiamo una mail dedicata (accessibility@apple.com), dove un gruppo speciale dell’Apple Care risponde a persone che fanno domande, forniscono feedback, segnalano bug”.
L’accessibilità passa per dettagli grandi e piccoli, come mostra ad esempio l’esperienza di WeTransfer. Il popolare sito per trasferire file (che è anche una piattaforma di distribuzione contenuti e un importante mezzo pubblicitario), ha lavorato con una ONG per creare un font che tenga conto delle difficoltà di chi è dislessico. “Il Comic Sans non è apprezzato da nessuno, ma per i dislessici è più leggibile di altri caratteri”, spiega Lina Ruiz, responsabile politiche sociali di WeTransfer. “Abbiamo previsto diversi settaggi dei colori, per chi ha problemi di vista, o alla possibilità di disabilitare le immagini in movimento. Includere l’accessibilità nel prodotto permette alle persone di personalizzarlo e di poterlo usare al meglio, e per questo 30 accessibility champions lavorano con WeTransfer, fornendo consigli e osservazioni. Per noi l’accessibilità non è un problema da risolvere, ma una cultura da costruire”.
“Non abbiamo abbastanza professionisti dell’accessibilità”, commenta Jonathan Chacón Barbero, Senior accessible software engineer di Cabify. È una piattaforma nata in Spagna che punta a ridurre il numero di auto parcheggiate e usarle costantemente; oggi la adottano 42 milioni di persone in 40 città. Ai ragazzi e alle ragazze dell’Academy, chiede se conoscono qualcuno con disabilità: “Se alzate una mano non la vedo, ma se dite ehi, allora vi sento”. Nel mondo si contano 285 milioni di persone cieche o ipovedenti, e Chacón Barbero è uno di loro. La sua passione per la tecnologia lo ha portato a lavorare come consulente in diversi enti ed aziende, tra cui l’Esa. Per Cabify ideato un menù accessibilità con tre opzioni: per chi ha problemi di mobilità e ha bisogno di raggiungere l’auto; per chi è sordo e preferisce chattare invece che parlare al telefono con il centro operativo; per chi vuole ricevere notifiche e aggiornamenti a voce (è il caso delle persone con difficoltà visive, ma anche di che presenta disturbi cognitivi). “Così alla fine ognuno può usare i nostri servizi senza assistenza esterna”, spiega.
La tecnologia può essere lo strumento che dà alle persone l’indipendenza che hanno perso o non hanno mai avuto: con Live Speech, ad esempio, è possibile scrivere una frase e farla leggere ad alta voce iPhone, iPad e Mac nelle chiamate telefoniche e FaceTime o nelle conversazioni dal vivo. Si può usare una delle voci standard di Apple o la propria; per crearla basta registrare 15 minuti di audio su iPhone o iPad utilizzando la funzione Personal Voice, che proporrà una lista sempre diversa di frasi da leggere. Così chi rischia di perdere la capacità di parlare – ad esempio a causa della SLA – potrà continuare a interagire con il resto del mondo con la sua vera voce. Funziona molto bene, la privacy è rispettata perché l’elaborazione avviene su iPhone, ma al momento è disponibile solo in inglese.
Come arriverà presto il Vision Pro per la realtà virtuale: ma c’è spazio per l’accessibilità in un oggetto che, fin dal nome, non sembra ideale per chi soffre di disturbi visivi? “Abbiamo integrato la funzione VoiceOver in Vision Pro. Questo permette a chi appartiene alla comunità non vedente di ricevere un feedback uditivo come su un Mac, e di poter gestire questa funzione tramite gesti, voce o altro. Ci sforziamo sempre di pensare ai nostri prodotti come strumenti utilizzabili dal maggior numero possibile di persone, e anche Vision Pro lo è”.
Già oggi l’iPhone permette a non vedenti e ipovedenti di interagire con oggetti fisici attraverso etichette di testo. Con Point and Speak, puntando la fotocamera su un’etichetta, come la tastiera di un microonde, legge ad alta voce le scritte indicate col dito. Può essere utilizzato anche per rilevare la presenza di persone e la loro distanza, l’ubicazione delle porte e altri riferimenti utili per aiutare a orientarsi nell’ambiente fisico. Niente di più facile che queste funzioni vengano riprese anche sul Vision Pro e sui modelli successivi: a quel punto anche l’obiezione del prezzo elevato del dispositivo diventerebbe irrilevante, visti i vantaggi che potrebbe portare. “Lavorare per un’azienda di prodotti consumer che si preoccupa così tanto dell’accessibilità significa tenere sempre aperto un dialogo tra i vari team e prendere qualcosa che è stato fatto da uno per far funzionare meglio un altro prodotto. Penso che Vision Pro sarà un grande esempio di questo scambio, per la multimodalità con cui si può interagire: con i gesti, la voce, lo sguardo e molto altro”.
Poco alla volta, Apple sta costruendo un’interfaccia fluida, omogenea tra dispositivi, flessibile nella molteplicità di opzioni, sempre meno legata a tastiera e mouse. Come il doppio tap che è arrivato con l’ultimo aggiornamento dell’Apple Watch, e che deriva da una funzione pensata originariamente per l’accessibilità: permette infatti di interagire con lo smartwatch senza mai toccarlo né guardare lo schermo. “La sfida più grande è normalizzare l’accessibilità, trasformarla da problema a strumento a disposizione di tutti”, conclude Henninger. A che punto siamo? “Il nostro obiettivo è sempre stato dare l’esempio. Tim Cook ha spesso detto che vogliamo essere l’onda che si propaga sul lago, e ciò vale anche in questo campo. Speriamo che gli altri ci seguano e si uniscano a noi”.
Fonte : Repubblica