Intelligenza artificiale, il patto delle big tech per salvare le elezioni

Gli obiettivi si basano sul lavoro già intrapreso delle aziende coinvolte, che oltre a quelle già citate comprendono anche Adobe, Amazon, Anthropic, Arm, ElevenLabs, Ibm, Inflection AI, LinkedIn, McAfee, Nota, Snap, Stability AI, Trend Micro e Truepic.

La minaccia dell’AI sul voto

Per il presidente della Conferenza sulla sicurezza di Monaco Christoph Heusgen, l’accordo rappresenta un passo fondamentale per incentivare l’integrità dei processi elettorali e creare pratiche affidabili in ambito tecnologico. “L’Msc è orgogliosa di offrire una piattaforma che permetta alle aziende tecnologiche di adottare misure per contenere le minacce derivanti dall’AI utilizzando allo stesso tempo la tecnologia per il bene della democrazia“, ha detto Heusgen. Per il momento non sono stati forniti dettagli sulle modalità o i tempi di applicazione degli impegni sottoscritti.

Le elezioni in programma quest’anno avranno un impatto storico sui settori strategici che garantiscono l’equilibrio del mondo. Un rapporto dell’Economist stima che nel 2024 circa 4 miliardi di persone si recheranno alle urne. Ma dei 71 paesi presi in considerazione dal Democracy index della pubblicazione, solo 43 avranno elezioni completamente libere ed eque.

Gli esperti avvertono che la tendenza potrebbe essere esacerbata dal consolidamento dell’intelligenza artificiale generativa e dal potenziale utilizzo della tecnologia a scopi di manipolazione. Il World economic forum ha definito la disinformazione creata dai sistemi di AI e la polarizzazione politica come alcuni dei principali rischi del 2024, mentre le autorità di diversi paesi hanno chiesto alle grandi aziende tecnologiche di mettere in campo misure di salvaguardia per prevenire l’uso dannoso di queste risorse.

La democrazia si basa su elezioni sicure e protette. Non possiamo permettere che gli abusi digitali minaccino l’opportunità di migliorare le nostre economie, creare nuovi posti di lavoro e guidare il progresso nella salute e nella scienza. È necessaria un’azione concreta e collaborativa per proteggere gli individui e le società dai rischi dei contenuti ingannevoli generati dall’AI“, ha dichiarato Kent Walker, presidente degli affari globali di Google.

Molto fumo e poca sostanza

La maggior parte delle big tech ha annunciato di voler adottare misure per prevenire l’uso dannoso dell’AI e identificare tempestivamente i contenuti ingannevoli. Diverse organizzazioni sottolineano tuttavia che la maggior parte di queste soluzioni non prevede un quadro temporale concreto. Per questi gruppi anche il nuovo accordo sarebbe quindi deludente: se da una parte la vaghezza degli impegni e l’assenza di requisiti vincolanti hanno probabilmente contribuito ad attirare un gran numero di aziende, dall’altra non c’è alcuna certezza che le promesse siano effettivamente mantenute.

Il linguaggio non è così forte come si sarebbe potuto aspettare. Dovremmo dare alle aziende i i giusti meriti e riconoscere che hanno l’interesse a far sì che i loro strumenti non vengano usati per minare elezioni libere ed eque. Detto questo, si tratta di un accordo volontario e controlleremo se ci sarà un seguito“, ha dichiarato in un’intervista ad Associated Press Rachel Orey, vicedirettore dell’Elections project presso il think tank Bipartisan policy center.

Questo articolo è apparso originariamente su Wired en español.

Fonte : Wired