OpenAI, il principale team di sicurezza non esiste più

Lo scioglimento del team di superallineamento di OpenAI si aggiunge ai recenti segnali che indicano uno scossone all’interno dell’azienda, sulla scia della crisi di governance dello scorso novembre. Il mese scorso due ricercatori del team, Leopold Aschenbrenner e Pavel Izmailov, sono stati licenziati per aver divulgato segreti aziendali, come riporta The Information. Un altro membro, William Saunders, ha lasciato OpenAI a febbraio, stando a un post a suo nome su un forum.

Di recente sembrano aver lasciato OpenAI anche altri due ricercatori che si occupano di politiche e governance dell’AI. Da aprile Cullen O’Keefe non ricopre più il suo ruolo di responsabile della ricerca del team policy frontiers, secondo il suo profilo LinkedIn. Daniel Kokotajlo, un ricercatore di OpenAI che è stato coautore di diversi articoli sui pericoli di modelli di AI sempre più potenti, “ha lasciato OpenAI per aver perso la fiducia nel fatto che l’azienda si sarebbe comportata in modo responsabile al momento dell’introduzione dell’AGI“, si legge in un post a suo nome su un forum. Nessuno dei ricercatori ha risposto alle richieste di commento.

Nemmeno OpenAI non ha voluto commentare le partenze di Sutskever o di altri membri del team di superallineamento, né tantomeno il futuro del suo lavoro sui pericoli a lungo termine dell’intelligenza artificiale. La ricerca sui rischi associati ai modelli più potenti dell’azienda ora sarà gestita da John Schulman, che finora ha guidato la messa a punto dei sistemi di AI dopo l’addestramento.

All’interno dell’azienda, il team di superallineamento non era l’unico che aveva il compito di riflettere su come tenere sotto controllo l’AI, anche se pubblicamente è stato presentato come il principale reparto dedicato ai pericoli più a lungo termine legati alla tecnologia. “Al momento non abbiamo una soluzione per guidare o controllare un’AI potenzialmente superintelligente e impedirle di ribellarsi“, si legge nel post sul blog aziendale in cui OpenAI annunciava il team l’estate scorsa .

Spauracchio AGI

Lo statuto dell’azienda vincola la società a sviluppare in modo sicuro la cosiddetta intelligenza artificiale generale (AGI), come viene definita un’ipotetica tecnologia AI in grado di rivaleggiare o superare le capacità degli esseri umani. Nonostante Sutskever e altri leader dell’azienda abbiano spesso sottolineato la necessità di procedere con cautela in questa direzione, di recente OpenAI ha iniziato a sviluppare e a rendere pubblici progetti sperimentali.

Fonte : Wired