Cosa c’è in ballo (davvero) con l’arresto di Pavel Durov

Non è comune che il ceo di una grande azienda tecnologica venga arrestato. Ed è per questo che si parla molto di Pavel Durov, numero uno di Telegram, fermato in Francia lo scorso 24 agosto. Nelle prime ore, si sono fatte molte ipotesi sui motivi dell’arresto. Su X, si è diffuso l’hashtag #FreePavel, a sostegno di quello che molte persone considerano oggi un martire della libertà di espressione. In seguito al parziale chiarimento delle autorità francesi, si può provare a fare un po’ d’ordine in un caso che riguarda più cosa vogliamo – come persone e società – dalle piattaforme web che la libertà di parola.

Perché Pavel Durov è stato arrestato

Laure Beccuau, procuratrice di Parigi, ha dichiarato in un comunicato che l’arresto fa parte di un’indagine aperta l’8 luglio “contro ignoti” per una serie di possibili accuse, tra cui complicità nella distribuzione di pornografia infantile, spaccio di droga, riciclaggio di denaro e rifiuto di collaborare con le forze dell’ordine.

L’indagine è condotta da specialisti in crimini informatici e frodi e Durov sarebbe stato fermato per essere interrogato dagli investigatori. In un comunicato uscito nelle ore successive all’arresto, Telegram aveva fatto sapere “di rispettare le leggi dell’UE, compreso il Digital Services Act”. E che “la moderazione dei contenuti sulla piattaforma rispetta gli standard dell’industria”.

Ecco, pare però che non c’entri molto l’Unione Europea nel fermo di Pavel Durov. Che sembra essere stato effettuato a partire dalle leggi francesi. La questione, insomma, è un po’ più complessa e non riguarda propriamente la libertà di parola.

Telegram è diverso dalle altre piattaforme

Partiamo dall’inizio. Telegram è fondamentalmente un’app di messaggistica istantanea, come Whatsapp. Ha però alcune particolarità. La sua popolarità (ha circa 900 milioni di utenti nel mondo) è in parte dovuta alla decisione di permettere la creazione di grandi gruppi di chat, fino a 200.000 persone, in un momento in cui altre piattaforme, come WhatsApp, stavano riducendo le dimensioni dei gruppi per contrastare la disinformazione. Altre funzionalità, come la condivisione di file di grandi dimensioni, l’assenza di limiti nella condivisione di link e l’uso di bot che possono interagire con gli utenti all’interno dei canali, hanno contribuito a renderlo uno strumento potente per la comunicazione a gruppi più o meno ampi di persone. Su temi diversi, dalla guerra in Ucraina o in Palestina, fino alla segnalazione di sconti su Amazon.

Queste capacità, unite alla moderazione minima dell’app, l’hanno resa un rifugio abbastanza sicuro per la diffusione non consensuale di materiale intimo, la pedopornografia e lo spaccio di droga. Il tutto in un ambiente solo apparentemente sicuro: nonostante sia considerata una piattaforma privata, la crittografia end-to-end (cioè quella tecnologia che rende visibili le chat solo a chi invia e a chi riceve il messaggio) non è impostata di default, a differenza di quanto accade sulle piattaforme Meta. Bisogna attivarla, selezionando l’opzione chat segrete.

Il vero problema di Telegram

Il punto, però, è la moderazione. Telegram, a differenza di quanto dichiari, non si avvicina nemmeno agli standard di controllo dei contenuti richiesti alle grandi aziende tecnologiche. Su Platformer, il giornalista Casey Newton sottolinea come, nonostante il divieto di pubblicare contenuti illegali o di promuovere la violenza, la piattaforma, nelle sue FAQ, evidenzi l’indisponibilità a eliminare contenuti – anche dopo segnalazioni di utenti – illegali da gruppi, chat e canali privati.

Ed è un po’ qui la percezione di sicurezza: non è tanto la crittografia, è più il fatto che in nessun caso i contenuti vengono condivisi con le forze dell’ordine. Ancora nelle FAQ, si legge: “Per proteggere i dati che non sono coperti dalla crittografia end-to-end, Telegram usa un’infrastruttura distribuita. I dati delle chat cloud sono distribuiti su più datacenter attorno al globo, controllati da differenti entità legali che a loro volta sono distribuite sotto diverse giurisdizioni. Le relative chiavi di decriptazione sono divise in parti e non sono mai tenute insieme ai dati che proteggono. Come risultato, per forzarci a consegnare qualsiasi dato sono necessari parecchi ordini dai tribunali di diverse giurisdizioni”.

Insomma, niente moderazione e indisponibilità a collaborare con le forze dell’ordine. Al netto del fermo di Durov (su cui vanno comunque chiariti alcuni aspetti) è qui il punto di questa storia. In un articolo pubblicato nel 2022, il giornale americano The Verge affrontava con grande efficacia il tema della moderazione dei contenuti sui social network, a partire dalla presa di Twitter (oggi X) da parte di un altro paladino della libertà di opinione come Elon Musk.

“La verità essenziale di ogni social network – si legge nel pezzo – è che il vero “prodotto” è la moderazione dei contenuti, e tutti odiano chi decide come funziona questa moderazione. La moderazione dei contenuti è ciò che Twitter produce: è ciò che definisce l’esperienza dell’utente. È lo stesso per YouTube, Instagram e TikTok. Tutti cercano di incentivare i contenuti positivi, disincentivare quelli negativi e rimuovere quelli davvero inaccettabili”.

Ecco, non tutti, a quanto pare. Non Telegram, almeno. Possiamo ancora accettarlo?

Fonte : Today