Intelligenza artificiale, OpenAI vuole controllare quella sovrumana

La creazione di sistemi di intelligenza artificiale sovrumana, dotata cioè di capacità superiori a quelle degli esseri umani, è un problema per il mondo e forse la più importante questione tecnica irrisolta del nostro tempo. Ne è convinto Leonard Aschenbrenner, membro del team Superalignment di OpenAI, che in un’intervista rilasciata a TechCrunch insieme ai colleghi Collin Burns e Pavel Izmailov ha spiegato come la società guidata da Sam Altman stia lavorando per controllare la tecnologia del momento anche in futuro.

Il trio ha fatto notare che il loro gruppo di lavoro, formato a luglio e guidato dal cofondatore e capo scienziato di OpenAI Ilya Sutskever (uno di quelli che aveva messo alla porta l’ad a metà novembre), si stia muovendo lungo un filo molto sottile. Alcuni addetti ai lavori sono infatti convinti che concentrarsi sull’allineamento di modelli di intelligenza artificiale sovrumani sia prematuro, mentre altri credono che si tratti di una falsa pista. Nonostante Altman sia prudente sul tema al punto da aver creato un team per proteggersi da “rischi catastrofici”, in molti sono infatti convinti che la tecnologia non avrà mai capacità di far finire il mondo, o almeno non le avrà nell’immediato e credono piuttosto che il lavoro di Superalignment serva a distogliere l’attenzione dalle attuali questioni normative relative all’intelligenza artificiale.

Per quanto riguarda l’approccio tecnico al lavoro, la squadra guidata da Sutskever ha deciso di utilizzare un modello di AI meno sofisticato, come per esempio GPT-2, per fare richieste a uno più avanzato, GPT-4. In questo modo, i tecnici simulano il tipo di gestione che gli esseri umani potrebbero impostare rispetto a un modello di super intelligenza artificiale. “È come se uno studente di prima media – spiega Izmailov – cercasse di supervisionare un universitario”.

Il lavoro di Superalignment sarà messo a disposizione di tutti. “Parte della nostra missione – spiega infatti Aschenbrenner – è contribuire non solo alla sicurezza dei nostri modelli, ma anche alla sicurezza dei modelli di altri laboratori e dell’intelligenza artificiale avanzata in generale”. Solo così sarà possibile “costruire l’AI a beneficio di tutta l’umanità, in tutta sicurezza”.

Fonte : Wired