L’incontro con Barbara Caputo si terrà il 19 aprile presso l’Aula 5 del Politecnico di Torino, in Corso Duca degli Abruzzi 24
Quali sviluppi possiamo prevedere per l’intelligenza artificiale nel breve e medio termine? Proviamo ad affrontare la questione con un approccio critico e informato, al di là dell’onda emotiva che accompagna la diffusione di questa tecnologia.
Per far questo non ci interessa una definizione da manuale, ci basta analizzare gli elementi di cui l’AI si compone. Indipendentemente da come è stata concepita sin dalla sua nascita negli anni ’50 e da come si evolverà, si basa su tre pilastri: gli algoritmi, i dati e “il ferro”, ovvero i computer su cui algoritmi e dati si incontrano e diventano AI. Cerchiamo allora di capire in che modo si evolveranno gli algoritmi, cosa cambierà nella gestione e nell’utilizzo dei dati, e come l’hardware supporterà tali sviluppi.
Algoritmi
Se guardiamo agli ultimi tre decenni, quando l’AI è uscita dai laboratori ed è entrata nella nostra vita, si può dire che la prima svolta si è avuta negli anni Novanta. È successo grazie ai kernel SVM (Support Vector Machines) e ai sistemi basati su metriche adattate a spazi non lineari, che hanno notevolmente esteso l’ambito di applicazione e le capacità dell’AI, permettendo di affrontare efficacemente anche problemi complessi, che ammettono soluzioni diverse da un semplice sì o no. Così sono nati ad esempio i filtri per lo spam e il riconoscimento biometrico.
Negli anni successivi, prima siamo passati all’incasso con applicazioni pratiche, poi abbiamo applicato queste innovazioni ad altri tipi di dati, come i suoni, il testo, le stringhe di DNA, le serie spazio-temporali delle transazioni bancarie.
Verso il 2009-2010, però, anche questi metodi hanno iniziato a mostrare i loro limiti e sono emersi problemi difficili da superare con le tecniche disponibili. Finché nel 2012 il lavoro pionieristico di Hinton, Krizhevsky e Sutskever sulle reti convoluzionali ha segnato una rivoluzione nel trattamento dei dati visivi, permettendo agli algoritmi di apprendere direttamente dai dati, con modelli ad alta scalabilità e a una grande quantità di parametri. Anche stavolta siamo passati all’incasso con applicazioni pratiche, e quindi abbiamo esteso il campo di azione ad altri dati.
Di nuovo abbiamo incontrato degli ostacoli, che ci hanno costretto a un approccio diverso: siamo passati così dai dati vettoriali ai token, che ci hanno portato nell’era dei Large Language Model e dei Transformer.
Dal punto di vista degli algoritmi, abbiamo avuto cicli di innovazioni di 10-12 anni; quello in cui siamo è appena all’inizio, e non mi aspetto rivoluzioni per almeno 6-8 anni. Una nuova svolta arriverà quando ci scontreremo con altri ostacoli e ci sarà un’altra una barriera concettuale da superare.
Dati
L’altra componente sono i dati: più ce ne sono, meglio è. Per decenni chi ha creato l’infrastruttura del web ci ha permesso di adoperarla come vetrina per pubblicizzare le nostre opinioni, noi stessi, i nostri prodotti in quanto aziende, e in cambio ha usato i dati che produciamo. Un patto tacito che non vale più: nel 2024 l’accesso all’infrastruttura web è un controvalore troppo basso, e lo mostrano ad esempio le battaglie legali di Disney o del New York Times, che richiedono un giusto compenso per i loro dati utilizzati nell’addestramento di modelli di AI. La questione della proprietà intellettuale è cruciale per lo sviluppo dell’AI, e credo sia solo una questione di tempo prima che alle aziende seguano i singoli cittadini.
Nei prossimi 5-10 anni potrebbero emergere nuovi modelli di compensazione, come l’accesso gratuito a certi servizi, ma anche strategie più complesse, magari mediate da accordi governativi: se i grandi della tecnologia non pagano abbastanza tasse agli Stati, che almeno versino un compenso per i dati che usano. Certo è che lo scraping sul web, pratica una volta comune per l’addestramento di modelli di AI, sta diventando sempre meno sostenibile sotto il profilo etico e legale.
Hardware
La terza componente dell’intelligenza artificiale è la macchina nella sua concretezza, “il ferro”, anche se ovviamente si tratta di silicio. Per addestrare e usare gli algoritmi servono computer che abbiano una capacità di calcolo adeguata, energia elettrica, e tanta acqua per raffreddare le macchine. In più, la produzione di chip richiede un livello di precisione altissimo, che poche aziende sono in grado di garantire: non per niente Nvidia si avvia a diventare la società hi-tech più quotata al mondo.
Così lo sviluppo dell’AI sta diventando sempre più legato alla possibilità reale di accedere al ferro. E solo chi è in grado di farlo può pensare di creare un Large Language Model proprietario, una nuova AI generativa in grado di sfidare i grandi come OpenAI.
E pensiamo alla formazione: come possiamo insegnare a ragazzi e ragazze cos’è e come funziona l’intelligenza artificiale, senza dar loro la possibilità di toccare il ferro? Purtroppo oggi questo è possibile solo in pochissime zone del mondo; in altre, i potenziali nuovi talenti dell’intelligenza artificiale non riusciranno a farlo e non potranno crescere; in altre ancora avranno soltanto un accesso limitato.
L’Italia
Prendiamo l’Italia: viene spesso citato Leonardo, che con 5000 nodi di calcolo, è il sesto computer più potente al mondo, è il sesto computer più potente al mondo. Se ne parla per la ricerca di base e per quella applicata, per le grandi aziende e le partecipate di Stato: ma la sua potenza basterà per tutto questo? Davvero riusciremo a formare tutti i nuovi talenti italiani che si affacciano all’AI nelle nostre università e nel Dottorato Nazionale in Intelligenza Artificiale, aiuteremo tutte le startup nuove ed esistenti in AI, supporteremo l’adozione dell’AI di tutte le aziende italiane e della PA, con un solo ferro, per quanto potente?
È vero, qualcosa si muove: ad esempio, con i fondi del PNRR è stata avviata la realizzazione di un Centro Nazionale per il Supercalcolo. Ma per progredire nell’unica direzione possibile, quella dell’economia digitale, abbiamo bisogno anche di altro: bisogna supportare la ricerca, la formazione, la riqualificazione, lo sviluppo industriale. Bisogna garantire la sicurezza dei centri di calcolo, che devono essere protetti come acquedotti, reti elettriche e altre infrastrutture essenziali.
Senza una strategia complessiva, il capitale umano di talenti, di capacità, di inventiva che possediamo in Italia non riuscirà a esprimersi. E se lo farà, sarà all’estero, dove potrà toccare il ferro: non per scaramanzia, ma perché questo è l’unico modo possibile per contare qualcosa nel mondo dell’intelligenza artificiale.
* Docente presso il Politecnico di Torino, dove dirige l’Hub sull’AI. È tra le co-fondatrici della European Laboratory for Learning and Intelligent Systems Society, nel 2021 ha ricevuto il Dottorato Honoris Causae dall’Università della Danimarca Meridionale. È co-founder e presidentessa di Focoos AI, spin-off del Politecnico di Torino.
(testo raccolto e adattato da Bruno Ruffilli)
Fonte : Repubblica