L’intelligenza artificiale di Google potrà essere utilizzata per sviluppare armi e sistemi di sorveglianza militari. Come riporta Bloomberg, il colosso tecnologico ha eliminato questa settimana il suo impegno etico che dal 2018 vietava l’uso dell’AI in ambito bellico, aprendo scenari preoccupanti per la sicurezza globale. La decisione è parte di una più ampia ridefinizione dei principi aziendali sull’AI, dove Google abbandona i limiti etici precedenti per adottare un approccio che definisce “audace e responsabile” nell’innovazione.
Il capo della divisione di Google DeepMind e premio Nobel 2024, Demis Hassabis, ha giustificato la decisione in un post sul blog di Google sostenendo che “l’AI sta diventando pervasiva come i telefoni cellulari”. E questo richiede un nuovo approccio, soprattutto in un contesto di accesa competizione globale per la leadership nell’intelligenza artificiale. Secondo l’analista di Bloomberg Parmy Olson, questa mossa segna definitivamente la fine dell’era del “Don’t be evil“, il motto originario dell’azienda in favore del più sfumato “Do the right thing“.
Dal rifiuto alla collaborazione con la Difesa
Il cambio di rotta di Google, infatti, arriva dopo una lunga storia di resistenza alle pressioni militari. Nel 2018 Google aveva dovuto rinunciare al Progetto Maven, una collaborazione con il Dipartimento della Difesa per sviluppare AI per l’analisi di filmati di droni, dopo che circa 4.000 dipendenti avevano firmato una petizione dichiarando che “Google non dovrebbe essere nel business della guerra”. La protesta aveva portato alle dimissioni di una dozzina di dipendenti e al mancato rinnovo del contratto per altri. Le pressioni del Pentagono, tuttavia, erano iniziate almeno un anno prima. William Fitzgerald, ex membro del team policy di Google, ha raccontato a Bloomberg che nel 2017 l’allora vice segretario alla Difesa Patrick Shanahan aveva visitato la sede del cloud computing dell’azienda a Sunnyvale, in California. Secondo Fitzgerald, il Pentagono stava valutando la possibilità di utilizzare l’infrastruttura cloud di Google per progetti militari classificati.
Nel corso del tempo, Google si è trovata ad affrontare diverse crisi interne riguardo la gestione delle questioni etiche. Nel 2019, l’azienda è stata costretta a sciogliere dopo appena una settimana il suo Advanced technology external advisory council, un comitato etico, a causa di controversie sulla sua composizione. La situazione è peggiorata nel 2020, quando due figure chiave del team etico, Timnit Gebru e Margaret Mitchell, sono state licenziate dopo aver sollevato preoccupazioni sui rischi legati ai modelli linguistici di grandi dimensioni e alle pratiche di ricerca aziendali.
Oggi, la resistenza di Google è definitivamente crollata, anche per evitare di rimanere l’unica grande azienda tecnologica a non partecipare alla corsa agli appalti militari. Secondo Bloomberg, infatti, OpenAI, che fino al 2023 vietava l’impiego dei suoi modelli per lo sviluppo di armi, ha siglato una partnership con il contractor della difesa Anduril industries. Mentre Anthropic – che in teoria si presenta come un laboratorio di AI attento alla sicurezza – ha avviato nel novembre 2024 la vendita del suo modello Claude ai contractor militari grazie a un accordo con Palantir technologies.
I rischi della guerra automatizzata e la necessità di regolamentazione
La trasformazione dell’intelligenza artificiale in ambito militare va ben oltre lo sviluppo di armi autonome. I sistemi di AI stanno infatti assumendo un ruolo sempre più decisionale nelle operazioni belliche, come dimostra il caso del Progetto Lavender sviluppato dall’esercito israeliano. La totale assenza di un quadro normativo internazionale ha finora lasciato le decisioni etiche sull’uso militare dell’AI nelle mani delle singole aziende private. Per affrontare questa lacuna, sono nate organizzazioni come il Future of Life Institute, un think tank precedentemente finanziato da Elon Musk e ora guidato dal fisico del Mit Max Tegmark, che propone di regolamentare i sistemi di AI militari come gli impianti nucleari, con rigorosi protocolli di sicurezza e verifica. Esistono, poi, eventi che vanno in questa direzione, come il vertice internazionale AI Action Summit 2025 di Parigi della prossima settimana, che riunirà i principali leader mondiali per discutere la regolamentazione dell’intelligenza artificiale, e che potrebbe rappresentare un momento decisivo per l’introduzione di regole vincolanti che prevengano i rischi dell’AI.
Fonte : Wired