I consumi energetici troppo elevati, i bias cognitivi che vengono riproposti dagli algoritmi, e la tutela del copyright sono le tre sfide che l’intelligenza artificiale dovrà affrontare. Al Wired Next Fest di Firenze Sasha Luccioni, ricercatrice nell’AI etica e sostenibile presso la startup franco-americana HuggingFace, ha analizzato tutti questi punti nel suo intervento in collegamento al Salone dei Cinquecento. In qualità di membro Fondatore di Climate Change AI e del Consiglio di Women in Machine Learning, ha subito sottolineato come la diversità debba essere presente all’interno dei modelli dell’intelligenza artificiale: “La tecnologia non è neutra, i bias dell’intelligenza artificiale altro non sono che quello che noi vediamo nella società. Qualsiasi stereotipo si applichi viene peggiorato dal sistema, che tende ad amplificare la distorsione. Per questo è importantissimo portare avanti piccole scelte quando si addestra l’intelligenza artificiale, bisogna che si confronti con le minoranze, prendendo più dati possibili anche sulle donne ad esempio, per vederle poi rappresentate e non aver risultati distorti”.
Come riporta Luccioni infatti solo il 12% di chi lavora nell’AI è donna: “C’è un grosso sbilanciamento, e siccome questa tecnologia ha una ricaduta sulla nostra vita è importante che vengano rispettate le diversità. Ad esempio, nella selezione dei cv si è capito che le donne venivano rifiutate solo in quanto donne, perché l’algoritmo si basava sul fatto che il 90% delle persone impiegate nel settore è rappresentato da uomini. Per questo è cruciale fare mentoring, vogliamo aiutare le comunità e le donne a non abbandonare questa industria”. Sempre partendo da questo concetto, secondo l’esperta è fondamentale che questa tecnologia “non sia nelle mani di pochi soggetti, deve essere open, per intervenire su questi aspetti in modo condiviso”.
Per tutelare la proprietà intellettuale e il copyright, per Luccioni bisogna “implementare meccanismi per capire quali siano le fonti che sono state utilizzate, analizzare i dataset usati da un’intelligenza artificiale. Si tratta di centinaia di Terabyte da ricercare, un lavoro impossibile da fare a mano, ma gli artisti possono, con degli strumenti, ricercare i loro lavori e capire se siano stati usati per allenare un modello di AI e denunciare l’azienda in questione. È stata fatta una class action per consentire agli artisti di avere il pieno possesso della propria opera, eliminandola dal dataset”. L’impatto ambientale non è poi un parametro trascurabile: “I modelli di IA non sono astratti, sono fatti di molte Cpu, di server e pc, ci serve un potere di calcolo che ha bisogno di molta energia, che senza delle scelte consapevoli crea degli effetti sul clima. Ad esempio, sono state emesse 500 tonnellate di CO2 per la creazione di Gpt-3″.
Nel panel “Focus AI – A come artificiale, I come italiana” tre startup nostrane hanno parlato della loro esperienza nello sviluppo di dati sintetici, ovvero informazioni che non mettono a rischio la privacy di nessuno, e di chatbot. Per Shalini Kurapati, ceo e co-founder di Clearbox AI: “I dati sintetici sono un nuovo paradigma sull’anonimizzazione. Oggi chi ha i dati vincerà e non sempre tutti li hanno a disposizione per allenare i propri modelli”. Dello stesso avviso anche Daniele Panfilo, ceo e cofounder di Aindo: “Nell’ambiente spesso si dice ‘No data no party’, perché senza è difficile allenare i modelli di un’intelligenza artificiale. Bisogna avere accesso ai dati, ma quando si disegna qualcosa vanno calati in un contesto anche normativo. Non dobbiamo per questo fermare l’innovazione, perché rimarremmo indietro, e in questo senso i dati finti, che si comportano come quelli veri, ci vengono incontro per un’innovazione etica”. Secondo Andrea Tangredi co-founder & chief product officer di indigo.ai, le future generazioni che vorranno cimentarsi in questo settore dovranno tenere a mente due fattori: “Come per tutte le tecnologie esiste l’ambito della ricerca e quello della loro applicazione sul campo, io consiglio di non escludere nessuno dei due mondi, provare un po’ entrambi e prendere poi una scelta consapevole in base anche alle proprie inclinazioni”.
Fonte : Wired