Un algoritmo-premier, quindi, che farebbe propri i valori e i programmi dello schieramento vincitore e valuterebbe in base a essi quali politiche perseguire. In alternativa, si potrebbe decidere di votare su una serie di questioni specifiche (l’Italia deve uscire dall’Europa? Dobbiamo chiudere i porti? Bisogna alzare il salario minimo?) e poi lasciare che sia un algoritmo a decidere la strada migliore per portare a termine questi obiettivi (che era più o meno la strada ipotizzata da Leader Lars, il chatbot candidato per scherzo alle elezioni danesi del 2022)
Chi avrebbe sicuramente appoggiato qualcosa del genere è il fondatore del Movimento 5 Stelle, Gianroberto Casaleggio, secondo il quale “un’idea non è di destra né di sinistra. È un’idea buona o un’idea cattiva”. Una visione tanto dicotomica (o, se volete, binaria) quanto ingenua. Per esempio: ridurre la povertà è un’idea buona, su questo qualunque politico sarebbe d’accordo. Farlo aumentando le tasse ai ricchi e ridistribuendo i proventi è una strada di sinistra; farlo tagliando le tasse ai ricchi, nella speranza che ciò favorisca la crescita economica e quindi l’occupazione, è una strada di destra.
Quale delle due sceglierebbe un’intelligenza artificiale? Tutto dipende – al netto dei tanti limiti sotto forma di bias, allucinazioni, ecc. – da ciò che è contenuto nei dati con cui è stata addestrata, vale a dire le soluzioni tentate in passato e i risultati ottenuti; ignorando che una strada che ha avuto successo in un determinato contesto potrebbe fallire in uno differente, che le condizioni socioeconomiche potrebbe essere cambiate, ecc.
I limiti della politica artificiale
Nel campo della governance, i limiti maggiori con cui si è scontrata, quando messa alla prova, l’intelligenza artificiale sono fondamentalmente tre: utilizza dati relativi al passato per modellare il futuro (con il rischio di perpetuare pregiudizi e stereotipi), favorisce il campione statisticamente dominante (penalizzando le minoranze) e risulta spesso incapace di modificare la sua analisi a seconda dei differenti contesti.
Ma è davvero così che dovrebbe funzionare un’intelligenza artificiale al servizio della politica? Molto probabilmente, no. L’intelligenza artificiale non è un sostituto dell’essere umano, ma qualcosa di più simile a un suo assistente. Non si contrappone a noi, ma ci è complementare. Noi siamo più bravi ad analizzare il contesto e a individuare soluzioni impreviste, la macchina può fornirci un eccezionale supporto grazie alla sua capacità di macinare enormi quantità di dati, trovando correlazioni a noi invisibili al loro interno.
Per queste ragioni, l’intelligenza artificiale può essere un alleato estremamente utile del decisore umano, ma non può sostituirlo. Il fatto che si immagini una cosa del genere – anche in un contesto provocatorio come quello che ha portato alla “candidatura” di Anna Luce D’Amico – ci dice probabilmente pochissimo delle reali potenzialità delle intelligenze artificiali. Ci dice invece tantissimo del livello di sfiducia che abbiamo maturato nei confronti della politica.
Fonte : Wired