Per ridurre all’essenziale le divergenze culturali che riguardano le IA, si può dire che – a grandi linee – in Occidente la percezione pubblica è influenzata da un immaginario più legato a film come Terminator, mentre in Oriente è condizionata da Astro Boy o Doraemon, robot amici dell’uomo. Le IA sono variamente temibili ma non fanno paura a tutti nello stesso modo.
Anche nell’Est del mondo, e il pensiero corre alla Cina, ci sono esempi di come le IA e le tecnologie possono essere impiegate in modo poco edificante, ma ciò non è sufficiente a suggestionare le persone nello stesso modo. Questo significa che le attitudini socioculturali di una specifica area geografica fanno la differenza al di là dei fatti che assumono così un valore relativo.
Il ruolo della percezione delle IA
Il timore o la fiducia nei confronti delle IA sono aspetti socioculturali con ricadute tangibili nella vita politica, economica e sociale delle diverse aree del mondo. Dove prevale la paura, gli stati tendono a frenare lo sviluppo di servizi e tecnologie e, nella peggiore delle ipotesi, nei regimi autoritari i governi si spingono a usare le IA per controllare la popolazione. Un esempio di ciò riporta al mese di luglio del 2022, quando la censura di Pechino ha bloccato l’accesso a WPS (l’equivalente cinese di Google Drive) alla scrittrice Mitu a causa dei contenuti del romanzo a cui stava lavorando, giudicati sensibili dalle autorità locali. Una situazione orwelliana che si sposa con le politiche del presidente della Repubblica Popolare Cinese Xi Jinping, che dal 2023 ha rafforzato il controllo centralizzato dei dati. Tutto ciò, anche in Cina, non ha smorzato tra la popolazione un atteggiamento benevolo nei confronti delle IA.
Cosa dicono gli studi
Rimanendo in Cina, uno studio curato da diversi ricercatori dell’università di Aachen misura un certo ottimismo nei confronti delle IA e della robotica in generale in rapporto al sentimento che provano i tedeschi. I cinesi, secondo i risultati ottenuti dai ricercatori, mostrano maggiore fiducia nei benefici delle IA per il progresso sociale mentre i tedeschi palesano timori per la salvaguardia della privacy e per la possibile perdita di autonomia.
Il paper individua differenze sostanziali nella percezione delle IA, giungendo alla conclusione che questa è influenzata da fattori culturali dominanti: in Germania hanno maggiore peso l’autonomia individuale e i diritti umani, in Cina la cultura popolare premia l’approccio collettivista orientato al progresso.
A considerazioni simili è giunto un altro studio, curato da esperti americani, canadesi e singaporiani che mettono l’accento sulla robotica, vista con occhio benevolo in Giappone e non del tutto malevolo in Cina. E questo al di là di ogni preconcetto, considerando che in Giappone la robotica è diffusa per fornire supporto all’uomo mentre nella Repubblica Popolare Cinese si impone nelle fabbriche. Gli aspetti culturali in Giappone sono influenzati anche dalla demografia: nel 2020 gli over 65 rappresentavano più del 12% della popolazione per un totale di circa 16 milioni di persone. Un welfare problematico che trova conforto nelle tecnologie a supporto dell’uomo. Quelli di Tokyo e di Pechino sono scenari del tutto diversi, che confluiscono in una visione culturale non dissimile. Torna, ancora una volta, una profonda tessitura culturale che la realtà non ha contaminato in modo netto, al contrario di quanto sta accadendo in Occidente.
Altre ricerche, pure contemplando il continente asiatico, misurano anche la percezione delle IA in Africa, nel Medio Oriente e in America Latina: il quadro che ne esce è variegato. L’Africa e l’Asia temono la dipendenza tecnologica e la perdita di posti di lavoro, Kenya e Sudafrica ritengono che le IA siano cruciali per affrontare le sfide socioeconomiche.
Intelligenza artificiale: in regalo con Repubblica 3 libri per capirla, creare contenuti e lavorarci
I timori dell’Occidente
La ricerca Fears about artificial intelligence across 20 countries and six domains of application (letteralmente: “Timori riguardo l’intelligenza artificiale in 20 Paesi e in sei ambiti di applicazione”) svolta con il supporto del Max Planck Institute for Human Development e dell’Institute for Advanced Study di Tolosa, si basa su sondaggi somministrati a 10mila persone, ossia 500 individui per ognuno dei 20 paesi coinvolti, Italia inclusa. Lo studio misura i timori delle persone verso le IA in sei professioni campione, ovvero medici, manager, operatori sociali, giornalisti, giudici e figure religiose.
Anche in questo caso emergono timori più marcati in Occidente rispetto all’Est del mondo. Sebbene ci siano differenze tra nazione e nazione, a Ovest l’impiego delle IA nella sanità è più tollerato di un’intelligenza artificiale che sostituisce un giudice o un collettivo giudicante. Lo studio rileva che la percezione delle IA nasce da contesti culturali e di sensibilità locali: i dati granulari dicono che gli Stati Uniti palesano un timore misurato in 64 punti su 100 (valori simili a quelli registrati in India), mentre in Turchia il valore è 53 su 100, in linea con Cina e Giappone. L’idea che professioni rilevanti possano essere svolte dalle IA fa più paura alle nostre latitudini e meno in Oriente.
L’IA dentro Whatsapp è un rischio per le nostre chat private?
I motivi delle percezioni diverse
Per entrare nei meandri delle percezioni abbiamo chiesto il supporto di Valeria Lazzaroli, presidente dell’Ente nazionale per l’Intelligenza artificiale (Enia), economista e sociologa.
Abbiamo sviluppato le domande focalizzandoci soprattutto sulla parte occidentale del globo, partendo dalla dicotomia Asimov – Terminator. Alle nostre latitudini, Terminator, con l’IA Skynet che si ribella all’uomo, cozza irrimediabilmente contro le Tre leggi della robotica di Asimov, altrettanto note e inneggianti un rapporto sicuro e pacifico tra uomo e macchina. Due punti di vista fantascientifici e antitetici ma, nell’immaginario collettivo, si è imposta la saga di film inaugurata da James Cameron nel 1984. Un altro assist lo ha fornito l’AI Act, il regolamento dell’Ue in materia di Intelligenze artificiali allestito attorno al concetto di rischio, ribadendo – forse involontariamente – il rapporto tra Intelligenze artificiali e pericoli.
Perché in Occidente si è imposta la narrativa di Terminator?
“La narrativa occidentale ha spesso utilizzato l’Intelligenza artificiale come metafora delle paure profonde legate al controllo, all’autonomia delle macchine e alla perdita di umanità. Terminator incarna un’ansia che nasce dall’immaginario collettivo post-industriale: la macchina che prende il sopravvento, l’uomo che perde la centralità. Una rappresentazione è coerente con la cultura individualista e critica dell’autorità tipica dell’Occidente, dove la tecnologia viene spesso vissuta come forza esterna, potenzialmente ostile, anziché come estensione dell’umano. È un riflesso sociologico del nostro rapporto con il potere e l’ignoto”.
Quale peso hanno avuto sull’opinione collettiva la missiva firmata tra gli altri da Hawking e Musk (2015) e l’appello lanciato da Musk nel 2024 per sensibilizzare sui pericoli potenziali delle IA?
“Hanno avuto un impatto notevole, soprattutto perché a parlare erano figure simboliche. Hawking incarnava la razionalità scientifica, Musk l’innovazione futurista: quando entrambi convergono su un messaggio di allarme, la società ascolta. Dal punto di vista psicologico, questi appelli hanno attivato una sorta di ‘panico morale controllato’, in cui la percezione del rischio si amplifica indipendentemente dalla probabilità reale. Sociologicamente, hanno rafforzato una visione binaria dell’IA: o salvezza o catastrofe. Eppure, nel concreto sviluppo delle tecnologie, la realtà è molto più sfumata e sistemica”.
Come mai invece in Giappone e in Cina l’idea popolare vede le IA più inclini a servire l’uomo, nonostante proprio in Cina vengano usate anche con scopi di controllo della popolazione?
“La cultura giapponese ha una lunga tradizione di animismo tecnologico: nei manga, negli anime e nella religiosità popolare, le macchine possono avere un’anima e convivere armoniosamente con l’uomo. In Cina, il confucianesimo ha sedimentato un’idea di ordine sociale in cui la tecnologia è al servizio della collettività. Queste radici culturali generano una predisposizione più fiduciosa nei confronti dell’IA, anche quando il suo uso è invasivo. A differenza dell’Occidente, qui la tecnologia non è vista come un altro da temere, ma come uno strumento da integrare e, se necessario, regolare severamente. È un diverso contratto sociale con il progresso”.
L’AI Act è basato sul concetto di rischio. Associare la parola “rischio” alle Intelligenze artificiali può contribuire a creare allarmismi disegnando uno scenario preoccupante che, nei fatti, è ben lungi dall’essere reale?
“Sì, il linguaggio ha un peso. Parlare in termini di rischio evoca scenari di pericolo imminente, che nella maggior parte dei casi non trovano riscontro né nella ricerca né nell’applicazione pratica dell’IA. Tuttavia, dal punto di vista economico e giuridico, il concetto di rischio è fondamentale per costruire regole, assicurazioni e responsabilità. Quindi è necessario, ma va comunicato con competenza. La sfida è passare da un immaginario catastrofista a una pedagogia del rischio: informare senza terrorizzare, responsabilizzare senza paralizzare. In realtà, l’intelligenza artificiale può diventare il più potente alleato proprio nella mappatura e nella previsione dei rischi aziendali, evidenziando fragilità spesso latenti nella governance. Questo vale non solo per la gestione della stessa IA, ma soprattutto per i dati che essa elabora: qualità, tracciabilità, sicurezza, uso etico. Il rischio non va solo gestito: va compreso, e l’IA può aiutarci a farlo meglio”.
Infine: possiamo dire che la paura delle IA è puramente morale. Quanto è razionale il panico morale?
“La paura dell’IA è morale, ma non è irrazionale. È il segnale che l’umanità sta riflettendo su sé stessa. Quando ci chiediamo se l’IA sia pericolosa, in realtà stiamo interrogando le intenzioni di chi la sviluppa, le asimmetrie di potere, la nostra capacità di governare il cambiamento. Il panico morale nasce quando queste domande restano senza risposta. Come psicologa del lavoro e sociologa dell’innovazione, vedo nella paura collettiva un’opportunità: è il momento di costruire fiducia, trasparenza e dialogo intergenerazionale. L’AI può essere uno specchio evolutivo, non un nemico. In ogni caso, per non tralasciare emotività che potrebbero diventare derive, abbiamo lanciato la Rete Nazionale delle Giurie di Comunità dell’AI in tutti i Comuni d’Italia. Per garantire una conoscenza democratica a tutti, declinata per ogni ambito, dove nessuno deve essere escluso”.
C’è spazio per creare un sano rapporto tra uomo e macchina?
“Ciò che temiamo delle IA è ciò che temiamo di noi stessi: il controllo senza empatia, l’efficienza senza coscienza, l’intelligenza senza saggezza. Ma l’intelligenza artificiale, come ogni tecnologia, non ha una moralità intrinseca. Siamo noi a doverle dare un senso. E quel senso deve nascere da una nuova alleanza tra etica, scienza, educazione e partecipazione democratica. Non serve un nuovo mito, serve una nuova maturità”.
Fonte : Repubblica