Mentre Neuralink si prepara ai suoi primi test clinici sull’uomo, e migliaia di volontari si fanno avanti per ricevere un chip nel cervello, la scienza che studia e sviluppa le brain-robot interface (BRI), vale a dire le interfacce che permettono al cervello umano di comunicare direttamente con un robot, fanno notevoli passi in avanti anche grazie ai recenti miglioramenti degli algoritmi alla base del machine learning. Nel video in questa pagina, virale sul social network X, viene illustrato il funzionamento di una BRI chiamata NOIR e sviluppata da studenti dello Stanford Vision Lab.
In questo caso un dispositivo EEG non invasivo – ovvero uno strumento medico per il monitoraggio dell’attività cerebrale tramite elettroencefalogramma – permette a un ragazzo di cuinare il sukiyaki giapponese. Questa interfacca consente in realtà di effettuare diverse azioni quotidiane – 20 in tutto – come pulire, giocare con gli amici a un videogame e accarezzare un cane (robot anche questo).
“NOIR utilizza dispositivi EEG non invasivi per registrare le attività cerebrali – spiegano i suoi ideatori -. Decodifichiamo l’intenzione umana, incluso con quale oggetto interagire (tramite SSVEP), come interagire e dove interagire”.
“L’efficacia di NOIR è migliorata da algoritmi di apprendimento dei robot basata su foundation models. Ciò consente a NOIR di adattarsi ai singoli utenti, prevederne le intenzioni e ridurre il tempo e lo sforzo umano”.
di Pier Luigi Pisa
Fonte : Repubblica