In vista del negoziato per l’approvazione dell’AI Act dell’Unione europea del 6 dicembre, arrivano richieste al governo italiano di spingere per avere un “quadro di regole chiari ed efficaci” sull’intelligenza artificiale. E mentre gli scienziati e addetti del mondo culturale chiedono di intervenire, una nuova ricerca mette in luce quanto l’IA sia ormai presente nella società italiana
ascolta articolo
Sull’Intelligenza artificiale serve un “quadro di regole chiari ed efficaci”: è questo l’appello rivolto al governo italiano da 34 associazioni di imprese, autori e artisti dell’intero mondo culturale, in cui si chiede all’esecutivo di sostenere “le previsioni sugli obblighi di trasparenza sulle fonti di contenuti con cui sono addestrati gli algoritmi dell’intelligenza artificiale”, in vista del negoziato europeo del 6 dicembre: all’ordine del giorno ci sarà il confronto per approvare l’AI Act dell’Unione europea. E si fa sentire anche la voce dei ricercatori, che chiedono al governo di mettere regole chiare sui modelli linguistici generativi di Intelligenza Artificiale già a monte, altrimenti si mettono a rischio gli sviluppatori di servizi, in particolare la piccole e medie imprese. Gli appelli arrivano dopo che nelle scorse settimane Italia, Francia e Germania hanno suggerito di scegliere la via dell’autoregolamentazione, attraverso codici di condotta per gli sviluppatori di IA. Un tema, quello dell’intelligenza artificiale, che sta diventando anche sempre più presente nella società italiana: secondo una nuova ricerca, infatti, il 95% degli intervistati tra i 16 e i 65 anni ha sentito parlare di IA mentre il 70% dichiara di usare l’IA generativa come ChatGpt per uso personale.
Il negoziato Ue sulle regole per l’IA
In seno all’Ue stanno continuando i negoziati sull’AI Act, che dovrebbe fissare le regole a livello europeo sull’intelligenza artificiale. Italia, Francia e Germania – in un’intesa arrivata a metà novembre – hanno suggerito la via dell’autoregolamentazione attraverso codici di condotta per gli sviluppatori di IA, al fine di non gravare le imprese di oneri amministrativi che potrebbero soffocare l’innovazione in un settore considerato cruciale per il futuro. Il presidente francese Emmanuel Macron aveva esortato ad approvare una “regolamentazione non punitiva per preservare l’innovazione”. L’eurodeputato Brando Benifei, capodelegazione del Pd al Parlamento Europeo e relatore dell’AI Act, aveva però spiegato che “non siamo disposti ad accettare autoregolamentazioni light per i modelli più potenti”, aprendo tuttavia alla possibilità di limitare il campo di applicazione di questa specifica regolamentazione a modelli a uso generale. A rendere ancora più complessa la trattativa c’è anche la questione dell’uso degli strumenti di IA nell’ambito della sicurezza nazionale, su cui gli Stati dell’Ue chiedono delle ampie deroghe rispetto all’impostazione più restrittiva del Parlamento.
L’appello delle associazioni culturali al governo
Secondo le 34 associazioni culturali che hanno firmato l’appello “è necessario un quadro di regole chiare ed efficaci che l’autoregolamentazione non può garantire”. Il gruppo ha ricordato come “in questi giorni a Bruxelles è in corso un delicato negoziato per approvare l’EU AI Act, il regolamento europeo che intende stabilire un quadro giuridico per lo sviluppo dell’intelligenza artificiale, compresa quella generativa. È una grande opportunità per le industrie culturali e creative che deve essere regolata garantendo al contempo i diritti fondamentali della società e degli individui”. Per le associazioni “l’AI rappresenta uno straordinario progresso tecnologico con un immenso potenziale per migliorare vari aspetti delle nostre vite, compresi quelli nei nostri settori. Tuttavia, è cruciale riconoscere che, insieme a questi benefici, esiste un lato più oscuro di questa tecnologia. In particolare, l’IA generativa viene addestrata su grandi dataset e ingenti quantità di contenuti protetti dal diritto d’autore e che vengono spesso raccolti e copiati da internet”.
leggi anche
Inps, l’intelligenza artificiale sarà utilizzata per trovare lavoro
“Rischio sostituzione lavoro creativo”
L’appello sottolinea come l’IA sia “programmata per produrre risultati che hanno la capacità di competere con la creazione umana. Questa tecnologia comporta diversi rischi per le nostre comunità creative. Le opere protette, le voci e le immagini vengono utilizzate senza il consenso dei titolari dei diritti per generare nuovi contenuti. Alcuni di questi utilizzi possono ledere non solo i diritti d’autore ma anche i diritti morali e della personalità degli autori e pregiudicare la loro reputazione personale e professionale”. Inoltre, affermano ancora le 34 associazioni firmatarie dell’appello, “c’è il rischio che il loro lavoro originale degli autori, artisti e delle imprese culturali e creative venga sostituito, costringendoli a competere con le loro repliche digitali che ne ricaverebbero ovvi vantaggi sotto diversi profili con gravi conseguenze anche economiche”. Per i firmatari dell’appello, inoltre, “esiste anche un rischio più ampio per la società, poiché le persone potrebbero essere indotte a credere che i contenuti che incontrano – testuali, audio o audiovisivi – siano creazioni umane autentiche e veritiere, quando sono semplicemente il risultato della generazione o manipolazione dell’IA. Questo inganno può avere implicazioni di vasta portata per la diffusione di disinformazione e l’erosione della fiducia nell’autenticità dei contenuti digitali e presenta seri problemi anche sotto il profilo etico”.
leggi anche
AI4TRUST, intelligenza artificiale contro disinformazione online VIDEO
“Massima trasparenza su fonti per addestrare algoritmi”
Per le associazioni “l’IA non può svilupparsi trascurando i diritti fondamentali, come i diritti degli autori e degli interpreti, i diritti sull’immagine e sulla personalità ed i diritti delle molteplici industrie creative e culturali che investono per rendere possibile la creazione di opere sulle quali è legittimo aspettarsi di poter esercitare un controllo. L’IA non dovrebbe mai essere impiegata in modi che possano ingannare il pubblico”. Secondo i firmatari dunque “l’AI Act deve garantire che sia data assoluta priorità alla massima trasparenza delle fonti utilizzate per addestrarne gli algoritmi, a favore dei creativi e delle industrie che rappresentiamo e più in generale della società europea. Gli obblighi previsti dovrebbero essere applicati agli sviluppatori e agli operatori di sistemi e modelli di IA generativa a monte e a valle con particolare riferimento all’obbligo di conservare e rendere pubblicamente disponibili informazioni sufficientemente dettagliate sulle fonti, i contenuti e le opere utilizzati per l’addestramento, al fine di consentire alle parti con un interesse legittimo di determinare se e come i loro diritti siano stati lesi e di intervenire”.
Scienziati: “Servono regole sull’IA generativa”
A pensare che siano necessarie regole chiare sull’IA non sono solo le associazioni culturali: “Come scienziati della comunità dell’Intelligenza Artificiale vogliamo far sentire la nostra voce a sostegno della necessità di regole sui grandi modelli generativi, i ‘foundation model’, nell’ambito della Regolamentazione Europea sull’Intelligenza Artificiale”, hanno scritto gli autori di una lettera aperta sottoscritta da circa duecento scienziati italiani e internazionali del settore e 6 istituzioni italiane tra cui la Fondazione Faire l’Associazione Italiana per l’Intelligenza Artificiale. “Regole a monte garantiscono che i pochi grandi sviluppatori forniscano i meccanismi di trasparenza e fiducia per i numerosi ulteriori attori a valle. Altrimenti, gli utenti finali saranno esposti a rischi che gli sviluppatori dei servizi a valle, e le Pmi in particolare, non possono gestire tecnicamente”. I codici di condotta volontari previsti oggi non prevedono sanzioni e sono dunque considerati non sufficienti: “Facciamo appello al governo italiano perché continui ad adoperarsi per un testo definitivo dell’AI Act che includa regole chiare per i modelli generativi, rinforzando il ruolo dell’Europa di avanguardia globale della regolamentazione dell’Intelligenza Artificiale, consentendo di coglierne le opportunità con le migliori salvaguardie per la sicurezza”.
leggi anche
Aitana Lopez, l’influencer generata dall’AI
Gli italiani e l’intelligenza artificiale
Il tema dell’intelligenza artificiale, intanto, sta entrando sempre più di nella coscienza pubblica: secondo una ricerca condotta da Ipsos insieme all’esperto di mondo digitale Vincenzo Cosenza, su un campione rappresentativo di 1.500 persone di età compresa tra 16 e 65 anni, il 95% degli intervistati ha sentito parlare di IA mentre il 70% dichiara di usare l’IA generativa come ChatGpt per uso personale, il 33% per lavoro e il 25% per lo studio. La percentuale sale al 44% nel caso della Generazione Z, che dimostra di saper adattare la tecnologia generativa a scopo di formazione. In tal caso, gli usi più frequenti sono la generazione di testi (52%), la sintesi (36%), la traduzione di lingue (33% che sale al 44% per i Baby Boomer) e la generazione di immagini (32% che arriva al 58% per i boomer). Solo al 26% l’analisi di dati, mentre sono ancora esigue le percentuali d’uso di strumenti per la generazione di audio (16%) e video (8%). Gli italiani si fidano abbastanza di tecnologie del genere, tanto che su una scala da 1 a 10, la fiducia è al 6,3. Da un lato evidenziano prospettive positive, come la semplificazione dei processi (30%, 37% tra la Gen Z), creazione di lavori non ancora esistenti (23%) oppure aiuti per la propria professione (14%). Dall’altro, gli intervistati mettono in luce aspetti problematici, come la perdita di posti di lavoro (26%), la minaccia per la creatività (26%), l’aumento del gap tecnologico tra le diverse generazioni (20%).
leggi anche
Nicolas Cage contro l’IA: “È un incubo, è disumana”
Fonte : Sky Tg24