Intelligenza artificiale, perché è sbagliato umanizzare la macchina e computerizzare la mente

L’intelligenza artificiale (IA) può generare fraintendimenti in molti modi. Se gli sviluppi vertiginosi del software e dell’hardware sono al di là della portata della maggior parte di noi, forse la fonte di confusione più profonda deriva dal vocabolario tecnico dell’Iintelligenza artificiale. Così affollata di termini derivati dalle scienze cognitive e dalle neuroscienze (BCS, che comprendono le scienze cognitive e le neuroscienze), l’IA acquisisce proprietà biologiche e cognitive ingiustificate che ne inficiano la comprensione. A loro volta, le discipline scientifiche che studiano le funzioni cerebrali alla base dell’apprendimento e del comportamento hanno preso sempre più in prestito dalle scienze informatiche e computazionali su cui si basa l’IA, trasformando l’entità biologica più complessa e multiforme che conosciamo in una semplice macchina calcolatrice.

Il prestito concettuale

Gli studiosi di intelligenza artificiale parlano ad esempio di “apprendimento automatico”, espressione coniata (o resa popolare, il dibattito è aperto) da Arthur Samuel nel 1959 per indicare “lo sviluppo e lo studio di algoritmi statistici in grado di apprendere dai dati e di generalizzare a nuovi dati, e quindi di eseguire compiti senza istruzioni esplicite“. Ma questo “apprendimento” non significa ciò che neuroscienziati e psicologi cognitivi intendono quando si riferiscono al modo in cui esseri umani o animali acquisiscono nuovi comportamenti o contenuti mentali, o modificano quelli esistenti, come risultato di esperienze nell’ambiente. Allo stesso modo, nell’IA si parla di “allucinazioni” per descrivere errori o deviazioni nell’output di un modello rispetto a rappresentazioni fondate e accurate dei dati di input. C’è una grande differenza con le nostre allucinazioni, esperienze percettive disturbanti che si sviluppano in assenza di stimoli esterni. 

Per spiegare questa confusione dobbiamo fare un passo indietro e partire da un’idea di Carl Schmitt, che osserva come “tutti i concetti significativi della moderna teoria dello Stato sono concetti teologici secolarizzati”. Ad esempio, nozioni politiche come “sovranità”, “stato di eccezione”, “volontà sovrana”, “onnipotenza della legge” e “legittimità” possono essere ricondotte a concetti teologici: questo prestito concettuale non ha eliminato la struttura o l’influenza dei concetti teologici, ma li ha ricontestualizzati in un quadro secolare.  Non è solo un’osservazione storica, ma anche una critica severa. Il prestito concettuale limita la valutazione critica dei concetti politici proprio a causa delle loro radici teologiche, dalle quali non si sono del tutto emancipati, mentre le dinamiche di potere e i processi decisionali in politica riflettono ancora le strutture stabilite dal pensiero religioso.

Le parole che mancano

Queste considerazioni possono estendersi ad altre discipline. Quando emergono nuove scienze, mancano di un vocabolario tecnico per descrivere e comunicare i loro fenomeni, problemi, ipotesi, osservazioni, formulazioni, teorie, ecc. È urgente la necessità di essere precisi, chiari, coerenti e sintetici; di concordare le definizioni e promuovere la standardizzazione. Le lacune vengono colmate inventando nuovi termini, utilizzando traduzioni dal greco o dal latino, o adottando e adattando espressioni tecniche di altre discipline. L’intelligenza artificiale si è sviluppata molto rapidamente e ha avuto bisogno di prendere in prestito il suo lessico da campi affini: la cibernetica, la logica, l’informatica e la teoria dell’informazione; e soprattutto le scienze che studiano il modo di agire e il comportamento umano e animale e le loro basi biologiche. Il fenomeno si è sviluppato a partire da Alan Turing, che ha influito in modo determinante sul parallelismo con l’intelligenza e il comportamento umani per spiegare come le macchine avrebbero potuto imitare alcuni aspetti della cognizione biologica. Ma probabilmente il prestito più problematico è avvenuto con l’etichetta che definisce l’intero ambito: “Intelligenza Artificiale”, creata dallo scienziato americano John McCarthy a metà degli anni Cinquanta.  

Oltre ad “apprendimento”, utilizzato per “machine learning”, i termini biologici e psicologici nell’intelligenza artificiale sono numerosi; ricordiamo, ad esempio, “adattamento”, “computer vision”, “memoria”.  Ma sono molti anche i termini con significati tecnici poco o per nulla correlati al senso che hanno nel loro contesto scientifico originale. Prendiamo il caso di “attenzione”, un termine estremamente popolare introdotto di recente nell’apprendimento automatico. In BCS si riferisce in generale ai processi di prioritizzazione dei segnali neurali o psicologici rilevanti per guidare il comportamento adattivo nel contesto corrente, e il sostantivo è spesso accompagnato da altri elementi qualificatori (ad esempio, attenzione selettiva, spaziale, basata sugli oggetti, sulle caratteristiche). Il significato nell’apprendimento automatico è molto diverso, come testimonia anche Wikipedia: “L’attenzione è un meccanismo, all’interno delle reti neurali, in particolare dei modelli basati sui transformer, che “calcola pesi ‘morbidi’ per ogni parola, più precisamente per il suo incorporamento, nel contesto”. È un caso di polisemia, se non di omonimia: le differenze scientifiche tra i due concetti sono significative e profonde, le somiglianze superficiali e trascurabili, eppure il bagaglio psicologico e biologico esercita un potere semantico che spinge verso un maggiore antropomorfismo. La capacità dei sistemi di IA di prestare attenzione, imparare e avere allucinazioni alimenta ulteriormente i progetti di intelligenza artificiale, i programmi di ricerca e le strategie aziendali. Sfortunatamente, ma non sorprendentemente, questo porta a ricorrenti “inverni dell’IA” (Floridi 2020).

Dall’altra parte, le scienze cognitive e neuroscienze hanno preso in prestito i costrutti tecnici e quantificabili dalla teoria dell’informazione e dalle scienze informatiche, inquadrando il cervello e la mente come sistemi computazionali e di elaborazione delle informazioni. Per esempio, Ulric Neisser, nel testo che segna la nascita della Psicologia Cognitiva, sostiene che “il compito di uno psicologo che cerca di capire la cognizione umana è analogo a quello di un uomo che cerca di scoprire come è stato programmato un computer. In particolare, se il programma sembra immagazzinare e riutilizzare informazioni, vorrebbe sapere con quali “routine” o “procedure” ciò avviene”. Anche qui l’elenco delle espressioni mutuate è lungo: si parla di “architettura”, “capacità”, “codifica e decodifica”, “campionamento”, “rapporto segnale/rumore”, “trasmissione” e così via. 

I limiti dell’analogia

Per molti versi, il parallelismo ha avuto successo, fornendo una base scientifica ed empirica per esplorare le proprietà e le basi biologiche della mente umana. Tuttavia, a volte può spingersi troppo in là, e portare a una visione riduzionista e impoverita, in cui le qualità soggettive della mente sono più eluse che comprese. Così, ad esempio, i modelli di attività cerebrale necessari o correlati ai fenomeni psicologici sono considerati di per sé spiegazioni sufficienti, i contenuti vividi ed esperienziali della nostra mente vengono appiattiti in attivazioni prolungate o stati funzionali di gruppi di neuroni, il momento delle scelte intenzionali ridotto a livelli di attivazione che raggiungono un limite decisionale.  

Questa situazione genera confusione in chi non è esperto e crede che l’IA sia intelligente, in chi è esperto ma crede che l’IA creerà sistemi superintelligenti, e in chi non si preoccupa di conoscere l’argomento e ne sfrutta i lati oscuri per i suoi interessi, spesso finanziari. Parte del credito di cui gode l’immagine fantascientifica dell’IA deriva da un’interpretazione antropomorfa dei sistemi computazionali, ma anche da una comprensione molto superficiale e meramente computazionale della mente.

Cosa si può fare per affrontare un tale pasticcio concettuale? Probabilmente nulla in termini di riforma linguistica: l’IA e le BCS continueranno a usare i loro termini, indipendentemente da quanto possano essere fuorvianti, da quante risorse facciano sprecare e da quanti danni possano causare nelle mani o nei contesti sbagliati. L’IA descriverà ancora un computer come un cervello artificiale con attributi mentali, mentre le scienze cognitive e del cervello continueranno ad appiattire il cervello e la mente come se fossero un computer biologico.

La lezione del cavallo vapore

Tuttavia, è la storia stessa della lingua a darci motivo di sperare. Una più vasta comprensione e un maggior numero di fatti modellano il significato delle parole e ne migliorano l’uso. Usiamo ancora espressioni come “il sole sorge” e “il sole tramonta”, anche se nessuno crede che il sole vada da qualche parte rispetto al nostro pianeta: il modello geocentrico è stato abbandonato da tempo, il linguaggio ha mantenuto le espressioni ma ha aggiornato i significati.

Chiudiamo questo articolo con un’analogia che offre motivi di ottimismo. Alla fine del Diciottesimo secolo, durante la Rivoluzione industriale, l’inventore scozzese James Watt fu determinante nello sviluppo della macchina a vapore. Per attrarre nuovi clienti, doveva dimostrare come il motore superasse il lavoro dei cavalli. Misurò quindi il lavoro svolto dai cavalli da tiro nelle miniere di carbone. Osservò che un cavallo da miniera poteva far girare la ruota di un mulino una volta al minuto, sollevando all’altezza di un piede circa 33.000 libbre, e quindi definì l’unità standard di un cavallo vapore come lo spostamento di 550 libbre al secondo. Il prestito concettuale funzionò e il termine “cavallo vapore” (HP) fu adottato universalmente per misurare la potenza del motore a vapore. Oggi rimane l’unità standard per indicare la potenza meccanica di un motore, ma naturalmente nessuno cerca zoccoli e criniere tra i cilindri. Un giorno, se saremo fortunati, le persone considereranno l’IA come l’HP e smetteranno di cercare proprietà cognitive o psicologiche nei sistemi informatici e computazionali.

*Centro di Etica Digitale, Università di Yale, USA, e Dipartimento di Studi Giuridici, Università di Bologna. 
** Istituto Wu Tsai e Dipartimento di Psicologia, Università di Yale, USA

Traduzione e sintesi a cura di Bruno Ruffilli. L’articolo originale, più ampio e in inglese, è apparso sulla rivista Minds and Machines 34, 5 (2024), la versione integrale è disponibile qui

Fonte : Repubblica