La realizzazione di contenuti è sempre stata un atto di creatività umana, un processo cognitivo e generativo che ha guidato il progresso tecnologico e sociale nel corso dei secoli. Tuttavia, il panorama attuale ci presenta una svolta epocale. Modelli di intelligenza artificiale (AI) definiti “generativi” stanno emergendo con la capacità di generare contenuti indistinguibili da quelli umani. Questa trasformazione suscita interrogativi profondi sul ruolo dell’uomo nella creazione, sfidando il concetto stesso di originalità e immaginazione.
Nonostante ciò, è innegabile che questa rivoluzione tecnologica porti con sé vantaggi considerevoli. L’AI generativa promette di rendere le nostre azioni più efficienti, superando le barriere cognitive e capacitive, e spaziando dalla produzione di contenuti alla lettura di libri, fino all’assistenza legale in tribunale. Tuttavia, l’impatto di tale cambiamento va oltre il mero progresso tecnologico, toccando aspetti etici, morali e legislativi.
L’attenzione è giustificata, poiché le tecnologie di questa portata raccolgono in sé opportunità e rischi. Come ogni strumento tecnologico, l’AI può essere utilizzata per scopi positivi o negativi, rappresentando una sfida per la nostra capacità di regolamentazione e controllo. Il potere di manipolazione attraverso la generazione di immagini e video, solleva la questione fondamentale della discernibilità tra ciò che è reale e ciò che è generato artificialmente.
In questo contesto, la tracciabilità dell’informazione diventa essenziale. La domanda sull’origine di un’immagine o di un articolo, ovvero se esso sia stato generato artificialmente o creato da un essere umano diventa cruciale per la tutela cognitiva di ogni essere umano. In un’era in cui l’opinione può plasmare il destino di intere popolazioni, soprattutto durante periodo di elezioni, garantire il diritto di conoscere l’origine del contenuto diventa una sfida significativa.
Un po’ come San Tommaso anche la società moderna attribuisce una maggiore credibilità all’informazione se associata ad una immagine o, più genericamente, ad un contenuto visivo. La possibilità di generare immagini “mai accadute” (fake) o di “far dire” a personaggi famosi parole mai pronunciate è capace di scatenare nell’essere umano un sentimento manipolatorio e polarizzante. Se per esempio uscissero su social media filmati compromettenti di un politico sufficientemente credibili, numerose persone inizierebbero a schierarsi a favore e contro. Anche se poche ore dopo venisse dichiarata la falsità del contenuto, il sentimento manipolatorio e polarizzante persisterebbe nel tempo. Lo abbiamo visto con la foto del “Papa in piumino” che la polemica è continuata per molti giorni dopo la dichiarazione di falsità dell’immagine. Lo abbiamo visto nella reazione del mercato azionario dopo che false immagini di missili sul pentagono erano fuoriuscite in alcuni canali mediatici. Tali comportamenti se effettuati su ampia scala possono manipolare un vasto numero di persone facendo nascere in loro un sentimento ostativo verso un possibile “candidato” favorendo di conseguenza una corrente politica. Cosa potrebbe accadere se tale corrente politica fosse “amica” oppure “nemica” ? Ecco che l’interesse nella manipolazione delle elezioni si eleva a giochi di stato e rispecchia operazioni geopolitiche di vasta scala.
Fonte : Wired