Le logiche perverse dell’algoritmo fanno solo danni

La giunta militare al governo si è fatta scudo delle fake news che la piattaforma mostrava incessantemente alla popolazione per commettere alcune tra le peggiori atrocità di questo secolo, sfociate in una crisi umanitaria con più di 700mila sfollati. Certo, si parla di tragedie epocali: ma cosa sono di fronte a un sistema che genera un sacco di soldi col solo carburante di comportamenti umani, troppo umani?

La prima vittima è la verità

D’altronde Mark Zuckerberg stesso l’aveva ammesso candidamente quando Trump, dopo i tentativi dell’allora Twitter di limitare le sue sparate mendaci, nel 2020, minacciava di revocare lo status di immunità legale delle piattaforme sui loro contenuti: «Facebook non deve essere l’arbitro della verità di ciò che la gente dice online». Ubi maior, fact-checking cessat: tra la fine del 2022 e l’inizio dell’anno seguente, nel bel mezzo di una congiuntura economica fattasi impervia, le Big Tech hanno deciso che le prime voci di spesa di cui privarsi erano quelle per la lotta alla disinformazione che prolifera sui loro servizi. Dopo i tagli di personale della parent company di Google, Alphabet – ha scritto il New York Times – a gestire le policy sulle informazioni fuorvianti di YouTube era rimasta una singola persona a livello globale.

L’indicibile morale di questa favola senza lieto fine apparente è che non siamo fatti per avere a che fare con palcoscenici che ci proiettano davanti a pubblici di migliaia, o persino milioni, di persone: è un meccanismo comunicativo pervertito, che implica una completa riscrittura di ciò che è alla base della nostra psiche, della nostra socialità, in fin dei conti del nostro essere umani. Nel 2018 in India diverse folle spontanee hanno linciato quasi trenta persone innocenti, in seguito alla diffusione capillare di alcuni messaggi virali su WhatsApp che mettevano in guardia la gente da inesistenti sequestratori di bambini.

Parlando al Senato statunitense alla fine del 2021, la whistleblower Frances Haugen ha accusato gli algoritmi della sua ex azienda, Meta, di «alimentare letteralmente la violenza etnica» in Etiopia, dove una sanguinosa guerra civile durata due anni, fino alla fine del 2022, stava facendo registrare atti di violenza, saccheggi e spedizioni punitive propiziati da post su Facebook calunniosi o disinformanti.

Chiusi dentro un bolla

Qualsiasi buon sociologo, o psicologo sociale, sa che un gruppo di persone che vive insieme funzionerà come società solo se riuscirà a percepirsi parte dello stesso mondo, a generalizzare le sue esperienze e a generare modelli mentali con cui potersi occupare collettivamente del suo futuro. Nell’era compartimentata e iper-frammentata dei social media, ognuna di queste tre condizioni imprescindibili sembra diventata un ricordo: viviamo in un mondo che è soltanto il nostro – o, al limite, quello della nostra bolla – con esperienze che non abbiamo modo di misurare e mettere a fattore comune, mentre quelle altrui risultano sfocate dalla centrifuga degli algoritmi.

L’impatto psicologico a lungo termine sugli individui e sul loro senso di “sé” di questo mondo di like e «content» per ora può solo essere oggetto di ipotesi e speculazioni: non esistono precedenti a cui possiamo aggrapparci. Ma una prima fondamentale domanda possiamo già iniziare a farcela: in media, da quando ci troviamo a scorrere con un pollice sullo schermo comunicazioni, proclami, chiose, esibizioni, farneticazioni, celebrazioni e frustrazioni di conoscenti e sconosciuti, siamo diventati più curiosi, aperti e interessati ai nostri simili e alla varietà intorno a noi? Se la risposta è “no” allora beh: Silicon Valley, abbiamo un problema.

Questo articolo è originariamente apparso su Wired n.109, in edicola ora.

Fonte : Wired