Il problema principale dell’etica dell’intelligenza artificiale è che non serve un’etica dell’intelligenza artificiale. Almeno non per come se ne parla. Il rischio, infatti, è che si finisca per spostare sulle macchine un tema che è squisitamente umano. Come se potessimo immaginare regole e modelli per l’IA che vivano indipendentemente dal contesto nel quale l’IA agisce e che contribuisce a ridefinire. Come se parlare di etica dell’IA rendesse lecito un processo di deresponsabilizzazione, individuale e collettiva, derivante dal fatto che il peso delle scelte possa davvero essere spostato in un algoritmo di cui l’essere umano è oggetto, ma non soggetto attivo.
Con la scusa dell’etica degli algoritmi finiamo per convincerci che l’etica è negli algoritmi, dimenticando che siamo noi a dover dare un’etica a ciò che fanno gli algoritmi. Insomma: dopo lo Stato Etico ci mancavano le intelligenze artificiali etiche. Figlie di una crisi globale della politica e delle ideologie che, dopo l’antropocene, spera forse in una sorta di tecnocene per toglierle le
castagne dal fuoco. Quando Floridi sostiene che è fondamentale definire le questioni etiche che derivano dalla pervasività dell’IA ha perfettamente ragione. Ma del suo libro non basta leggere il titolo. Come fare, quindi, per costruire un modello di riferimento che sia universalmente valido? In fondo è semplice: l’etica deve fare un passo indietro o, meglio, salire di un livello.
Dobbiamo accettare che la realtà è complessa. Ciò che pare etico oggi potrebbe non sembrarlo domani, e ciò che lo è in una parte del mondo potrebbe non esserlo in un’altra. D’altro canto, ci sono culture in cui imporre alle ragazze di smettere di studiare superate le scuole elementari è considerato giusto. Non saremo certo noi, quindi, a poter decretare la sconfitta del relativismo
culturale e darla vinta a Kant. È sbagliato pensare ad un’IA “etica by design”. Abbiamo bisogno, piuttosto, di IA sostenibili. E per esserlo devono disporre di quelle caratteristiche – non etiche, ma tecniche – che rompano la “scatola nera” dell’algoritmo e consentano di controllarlo. Insomma: non IA intrinsecamente “eque”, ma IA trasparenti, che ci consentano di sapere su quali basi scelgono. IA non discriminatorie, ma anche IA che siano in grado di consentirci di attuare discriminazioni positive, quando la scelta politica e sociale è quella di favorire la parte discriminata (si pensi alle quote rosa).
Questo vuol dire poter entrare nell’algoritmo, poterne definire i parametri, decidere come farlo lavorare ed avere visibilità su come ha operato. La discussione, quindi, non è sull’etica dell’IA, ma su quali caratteristiche tecniche debba avere l’IA per consentirci di usarla in modo etico. Tra queste, il Manifesto per la Sostenibilità dell’IA, della Fondazione per la Sostenibilità Digitale,
identifica fattori come trasparenza, privacy, sicurezza, revoca, riconoscibilità, portabilità, interoperabilità. In un G7 che sarà giocato in buona parte su questi temi non dovremmo cercare improbabili equilibri globali su cosa è buono e cosa è cattivo, ma applicare criteri di sostenibilità economica e sociale all’intelligenza artificiale. Per farlo possiamo lavorare su quei princìpi che – benché perfettibili – sono stati già codificati in Agenda 2030, e che oggi possiamo sfruttare come orientamento comune per identificare quali criteri dovranno essere rispettati dai grandi attori che stanno sviluppando sistemi basati sull’IA.
Si pensi alle grandi scelte che la vedranno coinvolta. Dalla priorità per un trapianto alla classifica di un concorso pubblico, l’IA del Vaticano dovrà poter ragionare in maniera diversa da quella di Mosca, così come dovranno fare quella dello Stato italiano e quella di Kabul. A modelli culturali diversi devono poter corrispondere modelli etici diversi, ma per renderlo possibile servono princìpi tecnici comuni. Non abbiamo bisogno di intelligenze artificiali che scelgano per noi cosa è giusto o cosa è sbagliato, ma di strumenti che ci aiutino a capirlo.
Fonte : Wired