Content farm e IA, la combinazione pericolosa che alimenta la disinformazione online

La disinformazione fatta (anche) con l’aiuto delle intelligenze artificiali sarà il secondo più grande rischio per l’umanità nel 2024, secondo solo agli eventi meteorologici estremi provocati dal cambiamento climatico: lo dice un recente sondaggio del World Economic Forum (questo).

La consultazione, che fa parte della nuova edizione del Global Risks Report del WEF, è stata condotta fra settembre e ottobre 2023 fra 1490 esperti provenienti dal mondo accademico, delle aziende, governativo e dalla società civile. Che sono stati dunque interpellati prima che Google e OpenAI svelassero al mondo Lumiere e Sora (la seconda si chiama così per la parola giapponese che significa cielo), le loro IA capaci di creare dal nulla video credibili partendo da istruzioni testuali. Aumentando esponenzialmente le possibilità di creare fake news e deepfake (qui un esempio) ancora più credibili.

Fake news fatte con l’IA e sostenute dalla pubblicità

Come si vede dai risultati del sondaggio (tabella qui sopra), il 53% degli esperti ha indicato la disinformazione creata con le IA come una potenziale fonte di rischio, seconda solo agli eventi meteo estremi, citati nel 66% dei casi.

GoogleOpenAI hanno ancora reso pubbliche le loro nuove IA, probabilmente impegnate nel cosiddetto allineamento (cos’è?), cioè nella moderazione delle risposte che possono dare soprattutto in aree considerate sensibili, come l’incitamento all’odio o alla violenza, la sessualità, la discriminazione e i pregiudizi e appunto la disinformazione. Per cui però rischia di essere già un po’ tardi.

Da questo punto di vista, gli esperti di NewsGuard hanno già catalogato nel mondo centinaia di siti di (fake) news realizzati con l’impiego dell’intelligenza artificiale e “con poca o nessuna supervisione umana”: a metà febbraio, queste content farm erano già oltre 700, in 15 lingue (arabo, cinese, ceco, olandese, inglese, francese, tedesco, indonesiano, italiano, coreano, portoghese, spagnolo, tagalog, tailandese e turco) e in crescita di un centinaio di unità rispetto a poco più di un mese fa.

Secondo quanto spiegato da NewsGuard, questi siti hanno di solito nomi generici (iBusiness, Ireland Top News, Daily Time Update e simili) che a un primo sguardo possono ricordare quelli di siti invece affidabili. In realtà, pubblicano articoli scritti in gran parte o interamente da chatbot e ne sfornano a dozzine, se non addirittura a centinaia, su argomenti che riguardano politica, tecnologia, intrattenimento, viaggi, morte di personaggi famosi e anche ripropongono eventi del passato come se fossero appena accaduti.

Come è purtroppo già noto, inoltre, questi siti si sostengono con la pubblicità programmatica, ovvero (semplificando) con inserzioni che compaiono sulle loro pagine indipendentemente dalla natura o dalla qualità dei contenuti, con il risultato che anche aziende famose o molto famose alimentano indirettamente e involontariamente questo tipo di disinformazione.

La crescita delle content farm fatte con l'IA in meno di un anno

Perché il 2024 è più importante degli altri anni

Se si combina la capacità e la velocità di scrittura delle intelligenze artificiali generative, in grado di produrre testi credibili in tempi molto ridotti, con quella di altre IA di creare foto, tracce audio e adesso pure filmati che sembrano veri, si capisce che c’è concretamente il rischio di trovarsi di fronte a una miscela potenzialmente esplosiva dal punto di vista dell’informazione.

Quest’anno, fra l’altro, non solo il rischio è ancora più alto di prima ma anche il problema è più grave di prima. Perché? Perché nel corso del 2024 oltre 4 miliardi di persone nel mondo saranno chiamate alle urne in (qui i casi più importanti citati dall’Economist) Unione europea, Stati Uniti, India, Russia, Pakistan, Bangladesh, Indonesia, Brasile, Messico e Turchia. Oltre la metà della popolazione della Terra dovrà andare a votare, e il rischio che lo faccia basandosi su informazioni scorrette, imprecise o palesemente false, è altissimo. E decisamente è anche colpa delle IA e dell’uso che ne viene fatto.

@capoema

Fonte : Repubblica