Intelligenza artificiale: tenete d’occhio è quella “noiosa”

Il problema siamo noi che usiamo il coltello, non il coltello”. Quindi, dice Stefano Quintarelli, non l’intelligenza artificiale in sé ma chi la sviluppa e utilizza. Quintarelli è imprenditore seriale, nome di primo piano del digitale del nostro paese e non solo: fondatore di I.net, il primo internet provider italiano, ha avuto un ruolo primario nella creazione e nello sviluppo dell’ecosistema internet nostrano. Ex parlamentare dal 2013 al 2018, ha ideato Spid – l’identità digitale unica – ed è stato membro del Gruppo di esperti di alto livello sull’intelligenza artificiale della Commissione europea, uno degli organismi consultivi che hanno preparato il campo al recente AI Act.

  1. L’AI, un nuovo modo di fare software
  2. Lungotermismo? La stragrande maggioranza degli addetti ai lavori non se ne occupa
  3. AI, i (veri) problemi da affrontare
  4. L’altra AI, quella “noiosa”

L’AI, un nuovo modo di fare software

L’intelligenza artificiale è un nome che descrive un modo di fare software” spiega Quintarelli, anticipando il suo intervento al prossimo meeting annuale della Global alliance for banking on values (Gabv), il summit della rete mondiale della finanza etica, per la prima volta in Italia dal 26 al 29 febbraio 2024 ospitato dal Gruppo Banca Etica fra Padova e Milano. “In particolare, è un modo di fare software nuovo, che consente di affrontare problemi diversi da quelli precedenti a cui si poteva far fronte solo in modo algoritmico. È vero che le banche utilizzano tantissima tecnologia e tantissima analisi dei dati ma sempre con sistemi statistici tradizionali – prosegue l’imprenditore -. Utilizzare l’intelligenza artificiale, e quindi un nuovo modo di fare software, consente di affrontare nuovi problemi e creare nuove applicazioni. In futuro tutta l’analisi dei dati sarà molto più pervasiva, oggi è limitata perché è costosa ma le cose cambieranno, ci saranno nuove forme di interazione con i clienti attraverso l’intelligenza artificiale e la gestione documentale sarà facilitata. Verranno efficientati molti processi sia nei confronti dell’utenza, sia all’interno della banca”.

A proposito di etica: in molti si dicono convinti che l’intelligenza artificiale debba averne una. Altri pensano invece che assegnare dei valori irrinunciabili a una tecnologia, per quanto potente, rischi di fare più danni che benefici. E in ogni caso, anche i più smaliziati del settore si domandano se bastino i cardini stabiliti nell’AI Act oppure se quello sia solo l’inizio di un’inevitabile nuova (e ricca) stagione normativa. “Credo che su questo tema ci sia un’interpretazione errata di base perché si attribuisce all’intelligenza artificiale, che è una tecnologia, caratteristiche che non ha, la si antropomorfiizza – dice Quintarelli -. L’intelligenza artificiale non è etica, esattamente come un coltello non è etico. È l’uso che ne facciamo che può essere etico o meno. Se facciamo del coltello uno strumento per uccidere, non è lo strumento a essere non etico, è chi fa l’azione”. Per l’ex presidente del Comitato di indirizzo dell’Agenzia per l’italia digitale, l’etica dev’essere in chi gli strumenti li produce, li pensa, li utilizza, li mette in campo e non nello strumento in sé. In altre parole, “siamo noi a dover essere etici. Rispetto all’AI Act, questo mette dei paletti che sono utili ma dobbiamo evitare l’eccesso di euforia, pensando a delle qualità taumaturgiche dell’AI”.

Lungotermismo? La stragrande maggioranza degli addetti ai lavori non se ne occupa

Il gruppo di lavoro dell’Unione europea messo in piedi nel 2018, che ha concluso il suo lavoro nel 2021, ha sfornato come principali risultati proprio delle linee guida etiche per la realizzazione dei sistemi di intelligenza artificiale e le raccomandazioni di policy per la commissione finiti poi nel testo approvato dalle istituzioni europee. Eppure le tecnologie al momento più potenti, da quelle di OpenAI e Microsoft a quelle di Google e Meta, sembrano riproporre lo schema a cui abbiamo assistito negli ultimi trent’anni: le piattaforme più potenti sono di nuovo in mano a un manipolo di società private, perlopiù statunitensi, che condividono ciò che vogliono se lo vogliono quando lo vogliono. E spesso paiono guidate da multimiliardari della Silicon Valley folgorati sulla via del cosiddetto lungotermismo, cioè la preoccupazione per la popolazione di un futuro remoto del pianeta che spesso rischia di approfondire le ingiustizie nel mondo di oggi.

Contesto il fatto che una parte significativa si ispiri al lungotermismo – replica Quintarelli, criticando una certa narrazione giornalistica -. Non credo sia così, solo che molti di loro sono sui media e quindi ottengono più risonanza. Piero Angela una volta mi raccontò una storia sul suo primo lavoro da giornalista. Fu mandato a seguire il varo di una nave e quando tornò indietro con il pezzo, il suo direttore gli disse ‘Ma no, non hai capito. Il pezzo interessa se la nave affonda, se il varo va male, non se il varo va bene’. Qui, in breve, c’è la ragione per cui la rappresentazione che viene data per la maggiore è di questi scenari catastrofisti associati al lungotermismo”. Come dire: sono pochi (e ricchi e potenti, è vero) quelli che seguono questa linea. Ma “la stragrande maggioranza degli addetti ai lavori non considera queste cose. Nel nostro gruppo di esperti, a Bruxelles, formato da 52 persone, avevamo scritto tre pagine sulle linee guida etiche e su queste ipotesi di temi. Dopodiché, la persona che tra di noi avevamo eletto nostro chairman, moderatore della riunione, disse: ‘Ma chi crede a questa evenienza ?’. Avevamo scritto tre pagine su questi temi e su tutti i presenti c’è stato uno solo che diceva che ci credeva e due che dicevano ‘No non ci credo, ma se per caso poi succede, almeno abbiamo scritto qualcosa’. Il tema che ci siamo posti era: se ce ne occupiamo lo nobilitiamo, se non ce ne occupiamo siamo tacciabili di critica da chi invece in queste cose, per interesse o realmente, ci crede. Alla fine, le tre pagine sono diventate una nota a piè di pagina in cui abbiamo scritto che alcuni credono a queste cose ma che di fatto si tratta di ‘fantascienza’. In seguito, abbiamo cambiato la parola ‘fantascienza’ con ‘irrealistica’”. In altre parole, spiega l’esperto, questa retorica butta la palla in tribuna, produce ansia sul futuro e, come in effetti molti sostengono, sposta il focus dell’attenzione dai più urgenti problemi di governance dell’AI che ci ritroviamo al momento per le mani.

I (veri) problemi da affrontare

Quali sono questi problemi? Quintarelli ne elenca alcuni: “L’uso dell’intelligenza artificiale a fini anti-competitivi, la creazione di posizioni di monopolio, lo sfruttamento del lavoro delle persone, la discriminazione. Quando si dice che l’umanità rischia l’estinzione a causa dell’AI, sono baggianate. L’unico ipotetico rischio di questo genere non sono le immagini fake ma l’utilizzo dell’AI negli armamenti: certamente se facciamo armi autonome, anche dato che sappiamo che l’AI sbaglia, possiamo attenderci esiti nefasti. Ma di nuovo, il problema non è l’AI ma l’uso che ne facciamo noi. Sgombrato il campo da esiti nefasti da super-intelligenze che sottomettono l’umanità, credo invece che tutto ci siano questioni concrete, attuali e prospettiche, che producono problemi concreti. Quando dico che l’AI diventa come un uomo, a quel punto sto dicendo che impara e crea come un uomo e, quindi, non ha senso l’idea di pagare il diritto d’autore quando uso i testi di altri. Quindi queste grandi visioni su ipotetici grandi temi e grandi problemi mascherano problemi attuali concreti che sono importanti, appunto, come lo sfruttamento del lavoro delle persone, la creazione di rendite di monopolio, lo sfruttamento del lavoro altrui”.

L’altra AI, quella “noiosa”

Il punto è in effetti essenziale. L’intelligenza artificiale, a pensarci bene, è balzata all’attenzione della generalità dell’opinione pubblica solo nel corso dell’ultimo anno, per lo più grazie alle sue abilità nei testi, nelle immagini e nei video. Per l’aspetto ludico, lavorativo a livelli più bassi, ricreativo, di programmazione. C’è però un’AI nascosta che lavora nei sistemi delle piattaforme, in quelli di sorveglianza e in quelli produttivi: quali sono i rischi e invece i vantaggi di soluzioni meno visibili ma forse più significative per i sistemi produttivi? “Iniziamo col dire che questi sono sistemi statistici, statistici vuol dire che non sempre 1+1 fa 2. Sono sistemi statistici e non deterministici e, come tali, a volte, producono dei risultati errati. Ci consentono di automatizzare categorie di problemi, in precedenza non gestibili in forma algoritmica, che richiedono percezione, classificazione, predizione. Il tema è questo: essendo sistemi statistici, ogni tanto sbagliano e dobbiamo saperlo – prosegue Quintarelli -. Il rischio è che noi ne facciamo un uso idealizzato pensando che, trattandosi di computer, questi siano infallibili, che possiamo usarli in una sorta di neo fisiognomica risolvendo problemi che, in realtà, non sono scientifici: usare queste cose per stabilire se una persona dica il vero o meno o se una persona è incline a una recidiva criminale oppure no, fa parte della pseudo-scienza”.

Fonte : Wired