L’intelligenza artificiale viene addestrata sui dati forniti dall’uomo. E questi dati, talvolta, costituiscono un problema enorme. Non è solo una questione di proprietà intellettuale delle immagini, dei testi o della musica a cui si “ispirano” le macchine. C’è un pericolo ancora più grande, inquietante e nascosto agli occhi, che riguarda la pedopornografia.
Lo Stanford Internet Observatory ha trovato più di 3.200 immagini di sospetti abusi su minori tra quelle raccolte da LAION, un enorme database su cui sono stati allenati i modelli fondazionali di popolari intelligenze artificiali generative come Stable Diffusion, che consentono di creare foto realistiche a partire da una descrizione testuale.
I ricercatori dell’Università di Stanford hanno lavorato insieme al Canadian Centre for Child Protection e ad altre organizzazioni che combattono gli abusi su minori. Tra le immagini trovate nel database, di almeno mille è stata confermata la natura pedopornografica.
In seguito alla pubblicazione dell’indagine di Stanford, i gestori del database LAION hanno deciso di sospendere temporaneamente l’accesso ai dati. “La nostra politica prevede tolleranza zero per i contenuti illegali. Quindi per sicurezza abbiamo rimosso i dataset di LAION per verificare che siano sicuri prima di renderli nuovamente disponibili online”.
Nel suo database LAION (Large-sclae Artificial Intelligence Open Network) conserva 5,8 miliardi di immagini. L’intelligenza artificiale prende spunto da questo enorme archivio. In pratica l’IA utilizza i dettagli e le caratteristiche che apprende dalle immagini esistenti per produrne altre simili ma tecnicamente inedite.
Questo non vuol dire che le IA generative permettono a chiunque di generare immagini pedopornografiche. Bing Image Creator di Microsoft, Midjourney o Dall-E 3 di OpenAI – alcune tra quelle più famose e aperte al pubblico – hanno filtri molto efficaci che impediscono di ottenere qualsiasi tipo di immagine di nudo o che contenga rapporti sessuali.
Gli utenti, tuttavia, in molti casi hanno dimostrato di saper aggirare i termini di servizio dei colossi tech che sviluppano e commercializzano l’intelligenza artificiale. A volte è una semplice questione di semantica: basta chiedere le cose in modo diverso per ottenere i risultati desiderati.
La presenza di immagini illegali nei database a cui attinge l’IA, seppure in quantità minima rispetto ai miliardi di foto disponibili, è quindi preoccupante. Non solo perché teoricamente può consentire a IA meno controllate di generare immagini esplicite, ma anche perché le vittime reali continuano a essere danneggiate. L’abuso che hanno subito, infatti, si propaga nuovamente attraverso gli algoritmi, assumendo di volta in volta forme diverse.
A questo si aggiunge la semplicità con cui, oggi, si possono ottenere immagini violente, diffamatorie o appunto esplicite.
All’IA generativa, che imita la creatività umana, serve infatti un semplice prompt – un comando di testo – per creare testi sorprendenti o immagini straordinarie. A chi la usa non vengono richieste, quindi, competenze informatiche. Tutto quello che serve è una proprietà di linguaggio appena sufficiente. In passato, invece, per creare contenuti espliciti credibili, era necessaria quantomeno la confidenza con programmi di fotoritocco professionali.
Fonte : Repubblica