Nel 2016 l’ingegnere di Google Illia Polosukhin stavo condividendo a pranzo con un collega, Jacob Uszkoreit, la propria frustrazione per la mancanza di progressi nel suo progetto, che sfruttava l’intelligenza artificiale per fornire risposte utili alle domande poste dagli utenti. Uszkoreit gli suggerì di provare una tecnica a cui stava pensando, che aveva ribattezzato “autoattenzione” (self-attention). Iniziò così una collaborazione tra otto persone che nel 2017 produsse un documento intitolato Attention Is All You Need (“Tutto quello che ti serve è l’attenzione), che introducendo il concetto dei transformer come metodo per potenziare l’AI avrebbe cambiato il mondo.
Otto anni dopo, tuttavia, Polosukhin non è pienamente soddisfatto di come stanno andando le cose. Da grande sostenitore dell’open source, è preoccupato per la segretezza dei grandi modelli linguistici basati sui transformer, portata avanti anche da aziende fondate attorno all’idea di trasparenza. Ad oggi, non sappiamo su cosa siano stati addestrati i modelli alla base dei servizi AI, a cui di sicuro degli estranei non possono metter mano. E anche se una gigantesca azienda tech come Meta sostiene che i suoi sistemi AI siano open source, Polosukhin non li considera davvero aperti: “I parametri sono aperti, ma non sappiamo quali dati sono stati inseriti nel modello, e i dati definiscono quali pregiudizi potrebbero esserci e quali tipi di decisioni vengono prese“, spiega.
Con il miglioramento degli Llm, Polosukhin teme che la tecnologia diventi sempre più pericolosa e che sia la ricerca del profitto a determinarne l’evoluzione: “Le aziende dicono di aver bisogno di più denaro per poter addestrare modelli migliori. Ma questi modelli saranno in realtà più bravi a manipolare le persone e sarà possibile metterli a punto per generare profitti in modo più efficace“, afferma.
L’ex Google non crede assolutamente che la regolamentazione possa aiutare. Per prima cosa, imporre limiti ai modelli è un’impresa talmente difficile che le autorità saranno costrette ad affidarsi alle stesse aziende: “Non credo che ci siano molte persone in grado di rispondere efficacemente a domande come: ‘Questi sono i parametri del modello, giusto? Il margine di sicurezza è buono?’”.
Un’AI aperta e responsabile
Per Polosukhin l’alternativa al sistema attuale è un modello open source in cui la responsabilità venga incorporata nella tecnologia stessa. Il ricercatore aveva lasciato Google già prima della pubblicazione del documento sui transformer per avviare un’organizzazione no-profit nel settore blockchain/Web3 chiamata Near Foundation. Ora l’azienda vuole applicare alcuni di questi principi di apertura e responsabilità a quella che Polosukhin definisce un'”AI di proprietà dell’utente“. Utilizzando come modello i protocolli crittografici basati su blockchain, questo approccio all’AI prevederebbe una struttura decentralizzata con una piattaforma neutrale.
Fonte : Wired