Facebook torna alle origini e crea un feed dove si vedono solo i contenuti degli amici

Meta ha annunciato un “ritorno al Facebook delle origini”, presentando la nuova funzionalità – per ora disponibile solo in Canada e Stati Uniti – che permette di vedere  solamente i contenuti pubblicati da amici e familiari. La novità sulla gestione dei contenuti sul social arriva in un periodo in cui Meta negli Stati Uniti ha deciso di chiudere il suo programma di fact-checking di terze parti per sostituirlo con uno simile alle Community notes di X

ascolta articolo

Un ritorno al “Facebook delle origini”: è così che Meta ha annunciato l’ultima novità sul social network: da questa settimana nel mercato nordamericano è disponibile una nuova opzione (“Friends Tab”) che consente di vedere un feed solamente con i contenuti pubblicati dagli amici. Il sistema è pensato per permettere agli utenti di vedere solo quello che viene condiviso dai propri contatti – storie, reel, post, compleanni e richieste di amicizia – anziché i “contenuti raccomandati”. Si tratta, secondo il New York Times, di un “netto distacco dal modo in cui i social media si sono evoluti nell’ultimo decennio”: per il quotidiano newyorkese infatti il successo di app come TikTok ha abituato gli utenti a vedere contenuti provenienti da influencer e creators, persone che spesso non hanno mai incontrato. E le app di Meta, tra cui Instagram, hanno “puntato maggiormente sui contenuti raccomandati per tenere gli utenti connessi per periodi più lunghi di tempo”.

L’annuncio di Meta e la storia di Facebook

“Connettersi con gli amici è una parte fondamentale di Facebook fin dal suo lancio”, ha scritto Meta sul suo blog. “Col passare del tempo, il social si è evoluto per rispondere alle mutate esigenze” degli utenti e ha creato nuove opzioni come i gruppi, i video, marketplace e altro ancora. Ma secondo la società “la magia degli amici è svanita. Aggiungeremo diverse esperienze da ‘original Facebook’ nel corso dell’anno”. Il social network, nato nel 2004, aveva come scopo iniziale quello di aiutare gli studenti dei college a connettersi con i loro amici nei campus e, con l’aumento della popolarità di Facebook, si è evoluto in modo da permettere a tutti gli utenti di tenersi in contatto con amici e familiari. E – ricorda ancora il New York Times – quanto nel 2022 Meta decise di inserire su Facebook i contenuti raccomandati, molti utenti se n’erano lamentati: “Molti inizialmente hanno trovato stridenti i contenuti consigliati, che si basavano sull’intelligenza artificiale per far emergere i suggerimenti. Dopo alcune critiche, Zuckerberg ha leggermente ridotto la quantità di tali contenuti aggiunti ai feed di Facebook”. 

La gestione dei contenuti su Meta

La gestione di Meta dei contenuti presenti sulla sua piattaforma è stata al centro dell’attenzione negli ultimi mesi. A inizio dell’anno infatti la società ha annunciato la chiusura del suo programma di fact-checking di terze parti e la sua sostituzione con sistema di Community notes simile a quello presente su X: “Negli ultimi anni abbiamo sviluppato un complesso sistema per gestire i contenuti sulla nostra piattaforma”, aveva spiegato Meta in un post sul suo blog. “Questo approccio si è spinto troppo in là” e “per quanto molti di sforzi fossero ben intenzionati, si sono espansi nel tempo al punto di commettere troppi errori” e “frustrare i nostri utenti”. Secondo la società “troppi contenuti inoffensivi vengono censurati, troppe persone si trovato erroneamente chiuse nella ‘prigione di Facebook’”. E il 18 marzo è iniziata la fase di test del nuovo programma delle Community Notes.

Leggi anche

Meta AI: come funziona su WhatsApp, Facebook e Instagram

La moderazione dei contenuti su Meta

Meta aveva poi annunciato che “nel tempo abbiamo sviluppato un sistema complesso per gestire i nostri contenuti, che è sempre più complicato da mettere in pratica. E il risultato è stato di applicare troppo queste regole, limitando il legittimo dibattito politico e censurando troppo contenuti banali e sottoponendo troppe persone a frustranti azioni di controllo”. E quindi si è deciso di smontare il sistema “che ha reso le nostre regole troppo restrittive e troppo tendenti al sovra-intervento. Ci stiamo quindi sbarazzando di una serie di restrizioni su argomenti come l’immigrazione, l’identità di genere e genere che sono frequentemente oggetti di dibattito pubblico”.  Secondo quanto riportato da Reuters, inoltre, Mark Zuckerberg aveva detto che “l’Europa ha un numero sempre maggiore di leggi che istituzionalizzano la censura e che rendono difficile costruire qualcosa di innovativo”. Accusa che era stata respinta dalla Commissione europea, secondo cui il Digital Services Act non chiede o obbliga le piattaforme a rimuovere contenuti legali ma solo quelli che potrebbero essere pericolosi, come nel caso dei bambini o delle democrazie dell’Unione: “Respingiamo assolutamente qualsiasi accusa di censura”, aveva detto un portavoce.

Come funzionano le Community notes

Nelle scorse settimane è stato pubblicato un report, che ha messo in luce l’impatto positivo dei fact-checker sulle ‘note della collettività’ presenti su X. L’analisi è stata condotta dalla no-profit di fact checking spagnola Maldita, che come Sky TG24 è partner di AI4TRUST: si tratta di un progetto finanziato dal programma Horizon Europe dell’Unione Europea che si propone di sviluppare una piattaforma contro la disinformazione che combini l’apporto dell’intelligenza artificiale con le verifiche di giornalisti e fact-checker.
Il report ha mostrato come le organizzazioni di verifica delle informazioni siano al terzo posto delle fonti più citate nelle note su X, dietro solamente a Wikipedia e a X stesso. Inoltre  “le note che contengono un link a organizzazioni di fact-checkers sono considerate più affidabili dagli utenti di X ed è quindi molto più probabile che diventino visibili”. Questi risultati “suggeriscono chiaramente come le organizzazioni di fact-checking siano essenziali affinché qualsiasi programma di note della collettività funzioni correttamente”, ha detto a Sky TG24 Carlos Hernández-Echaverría, vicedirettore di Maldita.

Leggi anche

Disinformazione e intelligenza artificiale, il progetto AI4TRUST

AI4TRUST

Fonte : Sky Tg24