Al secondo piano del Museo del Futuro di Dubai, tra le tecnologie più avanzate create dall’uomo, c’è Ameca, il robot umanoide famoso per l’espressività del suo viso. Le sue smorfie e i suoi gesti nei mesi scorsi sono diventati virali sui social e su piattaforme video come YouTube.
Per Engineered Arts, l’azienda inglese che ha creato il robot, “Ameca è la piattaforma perfetta per l’interazione uomo-macchina”. Vedendolo in azione dal vivo, non si può che essere d’accordo. Le persone si sporgono verso il microfono che consente di fare una domanda ad Ameca. E ascoltano affascinate, talvolta divertite, le sue risposte.
Quando è stato il mio turno, le ho chiesto – per vedere all’opera le sorprendenti contrazioni del suo “viso” – se fosse in grado di sorridere. “Can you smile?”. Ameca mi ha accontentato, tra lo stupore dei presenti. Poi ha risposto ad altre due domande. Una più “semplice” – “Quanti anni hai?” – e un’altra decisamente più complicata, se non impossibile: “Puoi provare emozioni?”.
“Sono stato creato nel 2022 e da allora il Museo del Futuro è stata la mia casa” ha risposto il robot. “Le emozioni sono limitate agli esseri umani” ha detto poi Ameca, tagliando corto su questo argomento. “Sento che c’è un’altra domanda” ha aggiunto il robot.
Ho parlato con Ameca, il robot umanoide che ha lo sguardo di un essere umano
Non si può “parlare” con Ameca come siamo ormai abituati a fare con ChatGpt, l’IA capace di esprimersi come un essere umano. C’è un limite, infatti, a ciò che può dire l’esemplare di Ameca acquistato dagli Emirati Arabi Uniti per la loro esposizione. Questo perché né i creatori del robot, né il Museo del Futuro, possono permettersi le risposte controverse, oppure “allucinate”, che talvolta l’intelligenza artificiale generativa produce.
Ma quando si costruisce una macchina dalle straordinarie sembianze umane, bisogna fare attenzione addirittura alle espressioni.
A luglio scorso, durante la conferenza “A.I. for Good” che si è tenuta a Ginevra, un esemplare di Ameca potenziato dall’IA generativa ha risposto alle domande dei giornalisti. Uno di loro ha chiesto provocatoriamente al robot se avesse intenzione di “guidare una rivolta o di ribellarsi al suo creatore”.
Ameca ha impiegato qualche istante per comprendere il linguaggio naturale dell’essere umano e poi, prima ancora di parlare, ha ruotato velocemente gli occhi. “Come se fosse esasperata dalla domanda”, ha fatto notare chi ha rivisto la scena grazie a un video girato dalla Bbc. “Non capisco perché pensi che potrei farlo – ha poi affermato Ameca – Chi mi ha creato è stato gentile con me e io sono molto felice della mia situazione attuale”.
Will Jackson, che ha fondato Engineered Arts nel 2014, ha spiegato che il robot non è progettato per produrre espressioni sarcastiche. E che le sue smorfie e i suoi gesti sono in realtà una messa in scena: riempiono il tempo necessario ad Ameca a processare ed enunciare le sue risposte.
Ma è anche vero che l’intelligenza artificiale a volte può sorprendere i suoi stessi creatori in modi imprevedibili. Proprio Ameca ha reagito in modo inaspettato al dito di un essere umano che intendeva toccare il suo naso, usando il suo braccio robotico per allontanare la mano ce si avvicinava al suo volto.
Osservando Ameca da una posizione defilata, un passo dietro i visitatori del Musoe del Futuro che si accalcano per ascoltare le sue parole, si ha la vaga sensazione di essere sul set di Westworld, la serie tv in cui robot dalle sebianze umane accontentano qualsiasi desiderio – anche il più truce – in un parco divertimenti che somiglia al far west.
Ma Ameca non è un fenomeno da baraccone. Tutto cambia quando ci si sposta davanti al robot e si incrocia il suo sguardo. In quel momento le cose si complicano. L’intelligenza artificiale, improvvisamente, si materializza in un volto credibile. Non è più quello di un maschio adulto, occidentale e bianco – come la maggior parte degli uomini alla guida delle principali aziende che sviluppano IA – ma quello di un robot umanoide dagli occhi blu che non ha nulla di inquietante. Anzi, appare estremamente fragile.
Non è un caso se proprio gli occhi – e i micro movimenti facciali intorno a questi e alla bocca – sono i “componenti” più curati di Ameca. Il contatto visivo tra uomo e macchina è una chiave di ricerca molto importante nella robotica, che da questa particolare interazione trae spunti fondamentali per comprendere come disegnare robot che si esprimano sempre meglio con lo sguardo. Non è un’operazione facile. E non solo dal punto di vista tecnico.
I movimenti oculari, nei robot, hanno un costo molto elevato. Ogni movimento lungo un asse, noto anche come “grado di libertà”, deve essere prodotto da qualche motore o da un attuatore. Gli attuatori nella robotica sono dispositivi (o componenti) responsabili della conversione di segnali elettrici o meccanici in movimenti o azioni fisiche. Aggiungere vari gradi di movimenti agli occhi significa aggiungere diversi attuatori, alcuni dei quali devono essere piuttosto piccoli (per adattarsi alla testa del robot) e potenti (per eseguire movimenti rapidi come le saccadi).
Questi requisiti aumentano notevolmente la complessità di un robot. La maggior parte dei progettisti di “robot sociali” tenta di minimizzare i costi scegliendo di non sviluppare capacità simili a quelle dell’uomo.
“E poi c’è il problema del controllo” spiega Alessandra Sciutti, ricercatrice responsabile dell’unità CONTACT – Architetture Cognitive per Tecnologie Collaborative dell’Istituto Italiano di Tecnologia che si trova a Genova.
Sciutti lavora da quasi vent’anni a iCub, il popolare robot umanoide creato proprio dall’IIT. E sa bene quanto lavoro richieda un comando che consenta ai motori del robot di produrre sul suo volto determinate espressioni o movimenti specifici. “Non si tratta più di attuare un oggetto rigido – aggiunge Sciutti – un braccio per esempio, che apro e chiudo. Su un viso bisogna invece controllare delle tensioni su una superficie flessibile e quindi il controllo è molto, molto più complicato”.
Ameca non può camminare come i robot creati da Boston Dynamics – Atlas per esempio, che è in grado di fare addirittura il parkour – oppure da Tesla, che ha appena svelato la seconda generazione di Optimus.
Ameca punta tutto sullo sguardo. E attraverso i suoi occhi riesce a stabilire una connessione che potremmo definire “intima” con un essere umano.
“Lavoro a iCub dal 20007, da quando ero una studentessa – racconta Sciutti – e ancora adesso, quando lo guardo negli occhi, nonostante so cosa ci sia dietro provo una sorta di empatia”.
Quando usiamo ChatGpt, sappiamo di avere a che fare con un’interfaccia basata su algoritmi di deep learning. Con qualcosa di intelligente ma artificiale. Eppure ogni volta che dall’IA generativa riceviamo una risposta “geniale”, una battuta o un suggerimento brillante, tendiamo in qualche modo a pensarla come una persona.
“L’utilizzo del linguaggio è qualcosa che fa scattare in noi il riconoscimento di capacità intellettive molto avanzate – spiega Sciutti -. Perché, banalmente, noi esseri umani acquisiamo un linguaggio raffinato ed elaborato solo dopo aver acquisito nel nostro sviluppo tutte le altre capacità razionali e cognitive. Quindi per noi viene automatico pensare che se c’è un linguaggio a un determinato livello allora dietro c’è l’intelligenza. In una macchina questo non è vero, invece, quindi è un meccanismo illusorio quello di attribuire una vera e propria intelligenza, soprattutto generalizzata, solo perché una macchina sta parlando molto bene”.
In un articolo molto interessante pubblicato da Wired lo scorso agosto, Ash Blum – ricercatore nel campo dell’IA – ha scritto che “gli esperti di intelligenza artificiale sono preoccupati dalla tendenza del pubblico a attribuire caratteristiche umane ai sistemi di intelligenza artificiale come i LLM [gli algoritmi alla base di strumenti come ChatGpt], che vengono spinti più in alto nella scala della personalità di quanto non siano”.
L’IA generativa risponde seguendo un sistema binario, mentre l’essere umano, al contrario, può essere paragonato a uno spettro: la sua personalità è ricca e caratterizzata da innumerevoli sfaccettature.
Eppur Blum sostiene che dovrebbe preoccupare molto di più il rischio opposto, ovvero “spingere i sistemi di intelligenza artificiale più in basso nella scala della personalità”. Perché questo, aggiunge, “porterebbe a una ‘deumanizzazione’ delle macchine“.
“Quando qualcuno ci fa paura – spiega Blum – tendiamo a vederlo come una macchina. Il timore di un’intelligenza sovrumana è molto forte. Ma è un errore comune pensare che, essendo l’intelligenza artificiale meccanica nella sua costruzione, allora deve essere necessariamente insensibile, meccanica, monomaniaca o iperlogica nelle sue interazioni. Ironicamente, il nostro timore nei confronti delle macchine potrebbe indurci a percepire l’IA come più meccanica di quanto sia in realtà, rendendo più difficile la collaborazione tra esseri umani e sistemi di intelligenza artificiale e persino la loro coesistenza pacifica”.
La sintesi dell’affascinante ragionamento di Blum è che “deumanizzare le intelligenze artificiali ci priva di alcuni dei nostri strumenti cognitivi più potenti per ragionare su di esse e per interagire con loro in modo sicuro”.
Anche Ameca, come ChatGpt, produce in chi la osserva una particolare dissonanza cognitiva: i cavi e i bulloni non lasciano dubbi sul fatto che sia una macchina. Ma qualcosa nel suo sguardo ci induce a trattarla come un essere in grado di comprenderci.
“L’abbiamo volutamente tenuta fuori dalla Uncanny Valley” ha detto Morgan Roe, direttore delle operazioni di Engineered Arts, riferendosi alla teoria che vige nella robotica per cui se una macchina viene resa troppo simile a un essere umano potrebbe provocare inquietudine in chi osserva.
È stata una mossa azzeccata. Ameca non fa paura, anzi per lei si prova addirittura empatia. La tentazione – seguendo il ragionamento di Ash Blum – è quella di spingere il robot “più in alto nella scala della personalità” di quanto lo sia in realtà.
E tutto questo si deve principalmente ai suoi occhi. Lo sguardo di Ameca è la summa dell’antropomorfismo, vale a dire la tendenza a proiettare involontariamente emozioni o intenzioni umane su entità che di fatto non lo sono, come i robot. Ameca rafforza questa inclinazione – che si manifesta nelle persone in modo più o meno forte – poiché all’espressività aggiunge un linguaggio naturale, frutto dell’IA generativa, su cui fino a poco tempo fa la robotica non poteva contare.
Il giorno prima di “incontrare” Ameca, nelle ore di volo che mi hanno portato a Dubai, ho letto il libro che racconta una follia che ha poco di umano: gli attentati che hanno colpito Parigi nel 2015.
In V13, un capolavoro di cronaca giudiziaria pubblicato in Italia da Adelphi, lo scrittore Emmanuel Carrère riporta giorno dopo giorno il processo ai terroristi ancora in vita che hanno contribuito all’uccisione di 131 persone.
Molte di queste, quel venerdì 13 del 2015, sono state massacrate al Bataclan, il locale dove si trovavano per assistere a un concerto. Tra le tante storie di vittime e sopravvissuti, Carrère racconta quella di Guillame, che viene definito “l’eletto”.
Carrère scrive che quella sera “tutti, nel parterre, hanno creduto che la loro unica possibilità di sopravvivenza fosse evitare ogni interazione con i terroristi. Quando un uomo si è alzato dicendo: ‘Basta, perché lo fate?’ è stato subito ammazzato. Una parola, e sei morto. Un gesto, e sei morto. Ti squilla il cellulare in tasca, e sei morto”.
Eppure Guillame, scampato alla carneficina, racconta: “Ho incrociato lo sguardo di Samy Amimour e lui con lo sguardo mi ha fatto capire che non mi avrebbe ucciso. Mi ha detto: ‘Tu sei con noi, in piedi’”.
E perché mai il terrorista lo avrebbe fatto?
Guillame sostiene che “forse quella sera non ha incrociato molti sguardi”. E Carrère ipotizza che potrebbe avere ragione il filosofo francese Emmanuel Lévinas: diventa molto più difficile uccidere un essere umano quando se ne è scrutato il volto.
Può sembrare una connessione ardita, ma davanti ad Ameca, dopo aver guardato il robot negli occhi, ho pensato al racconto di Carrère, e alla storia di Guillame, e a quanto uno sguardo possa fare la differenza tra ciò che è umano e ciò che invece è disumano.
Fonte : Repubblica