Google, l’AI ora potrà essere usata anche per armi e sorveglianza

Il colosso presenta i suoi nuovi obiettivi come il perseguimento di iniziative audaci, responsabili e collaborative sull’AI. Dai principi di Google sono spariti i riferimenti all’utilità sociale e all’“eccellenza scientifica, mentre è stato aggiunto un accenno al “rispetto dei diritti di proprietà intellettuale“.

Circa sette anni fa, dopo la pubblicazione delle linee guida sull’AI, Google aveva creato due team incaricati di verificare se i progetti dell’azienda fossero all’altezza degli impegni presi. Uno di questi gruppi di lavoro si è concentrato sulle attività principali del gigante – come la ricerca, gli annunci, Google assistant e Maps – mentre l’altro era dedicato alle offerte di Google Cloud e agli accordi con i clienti. L’unità che si occupava del settore consumer è stata smantellata all’inizio dell’anno scorso, mentre l’azienda era impegnata nella corsa allo sviluppo di chatbot e altri strumenti di AI generativa per competere con OpenAI.

Timnit Gebru, ex responsabile del team di ricerca sull’AI etica di Google – licenziata nel 2020 – sostiene che l’impegno dell’azienda nei confronti dei principi è sempre stato in discussione. “Direi che è meglio non fingere di avere questi principi piuttosto che scriverli e fare il contrario“, afferma.

Tre ex dipendenti di Google che hanno partecipato alla revisione dei progetti dell’azienda per garantire che fossero in linea con i principi affermano che il loro lavoro è stato a volte difficile a causa delle diverse interpretazioni e delle pressioni esercitate dai vertici societari per dare priorità agli imperativi commerciali.

Google parla ancora della necessità di prevenire applicazioni dannose nella sua Politica sull’uso accettabile della propria piattaforma cloud, che include vari prodotti basati sull’intelligenza artificiale. La norma vieta di violare “i diritti di altri soggetti” e di intraprendere o promuovere attività illegali, come “il terrorismo o la violenza che possono causare morte, danni gravi o lesioni a individui o gruppi di individui“.

Tuttavia, quando qualche mese fa Wired ha chiesto come questa politica si conciliasse con il progetto Nimbus – un discusso contratto per la fornitura di servizi di cloud computing tra l’azienda e il governo israeliano, di cui hanno beneficiato le forze armate del paese – Google ha risposto che il “progetto non è diretto a procedure altamente sensibili, riservate o militari che hanno a che fare con armi e servizi di intelligence“. “L’appalto Nimbus riguarda procedure eseguite sul nostro cloud commerciale dai ministeri governativi israeliani, che accettano di rispettare i nostri Termini di servizio e la nostra Politica di utilizzo accettabile“, ha dichiarato a luglio la portavoce di Google Anna Kowalczyk.

Questo articolo è apparso originariamente su Wired US.

Fonte : Wired