Gemini 2.5 Pro, perché Google non è stata chiara sulla sua sicurezza

Qualche settimana fa Google ha presentato il nuovo Gemini 2.5 Pro, uno dei suoi modelli AI più potenti sul mercato, ma solo ieri ha rilasciato un rapporto tecnico dettagliato sulle sue caratteristiche e prestazioni.

Quello che non ha convinto gli esperti del settore, però, è la leggerezza con cui Big G ha esposto i dettagli sulla sicurezza e sull’affidabilità del modello, rendendo di fatto difficile comprendere quali rischi potrebbe rappresentare per gli utenti. “Questo [rapporto] è molto scarso, contiene informazioni minime ed è uscito settimane dopo che il modello era già stato reso disponibile al pubblico – ha dichiarato Peter Wildeford, cofondatore dell’Institute for AI Policy and Strategy, a TechCrunch -. È impossibile verificare se Google è all’altezza dei suoi impegni pubblici e quindi impossibile valutare la sicurezza dei loro modelli”.

I principali dubbi degli esperti su Gemini 2.5 Pro

Secondo quanto lamentano gli esperti di sicurezza, infatti, il report di Google non fa alcuna menzione del Frontier Safety Framework, introdotto dalla compagnia lo scorso anno nel tentativo di individuare e gestire in anticipo quelle capacità dei modelli AI avanzati che potrebbero causare “gravi danni”. A quanto pare, però, non è la prima volta che il colosso tecnologico omette i dettagli sulle valutazioni di sicurezza dei suoi modelli di intelligenza artificiale.

Thomas Woodside, esperto del settore, ha fatto notare a TechCrunch che l’ultimo rapporto tecnico pubblicato da Google risale a giugno 2024 – tra l’altro, riguardo un modello lanciato a febbraio dello stesso anno -. Dopo questa data, infatti, Big G non sembrerebbe aver fornito dettagli tecnici sulla sua intelligenza artificiale, incluso Gemini 2.5 Flash, il modello piccolo ed efficiente annunciato la scorsa settimana. Incalzato dai professionisti del settore, però, un portavoce della società ha fatto sapere che un rapporto sul nuovo modello è in arrivo.

Eppure, il comportamento di Google non sembra convincere gli esperti di sicurezza, che sottolineano come la compagnia non stia mantenendo la promessa fatta ai governi internazionali anni fa, quando si è impegnata a fornire rapporti sulla sicurezza dei modelli AI più significativi lanciati sul mercato.

Insieme alle notizie secondo cui laboratori concorrenti come OpenAI hanno ridotto da mesi a giorni i tempi dei loro test di sicurezza prima del rilascio, questa scarna documentazione per il modello AI di punta di Google racconta una storia preoccupante di una corsa al ribasso sulla sicurezza e sulla trasparenza dell’AI, mentre le aziende si affrettano a immettere i loro modelli sul mercato”, ha commentato l’esperto Kevin Bankston, sollevando un problema tutt’altro che irrisorio: la sicurezza degli utenti in secondo piano rispetto ai profitti della compagnia.

Fonte : Wired