Secondo il ceo di Meta, che ha annunciato la cessazione dei programmi di fact-checking sulle sue piattaforme, in Ue le leggi istituzionalizzano la censura, obbligando i social a prevenire la diffusione di contenuti che promuovono odio e disinformazione. Parole che necessitano di essere inquadrate sul piano del diritto
Mark Zuckerberg ha annunciato la cessazione dei programmi di fact-checking, cioè di verifica dei contenuti, su Facebook e Instagram. La decisione riguarda per ora solo gli Stati Uniti, anche se è probabile che alcuni post non più sottoposti a un vaglio in Usa arrivino comunque in Europa. La delimitazione geografica, quando si parla di contenuti virtuali, non è effettivamente praticabile.
Secondo Zuckerberg, in Ue le leggi istituzionalizzano la censura, obbligando le piattaforme social a prevenire la diffusione di contenuti che promuovono odio e disinformazione. Le parole del ceo di Meta necessitano di essere inquadrate sul piano del diritto.
Il DSA
Il Regolamento europeo sui servizi digitali, Digital Service Act (Dsa), impone obblighi a tutte le piattaforme che offrono servizi online. In particolare, quelle di più grandi dimensioni devono identificare, analizzare e valutare i rischi sistemici legati ai loro servizi, con riguardo, tra l’altro, alla diffusione di disinformazione e di contenuti illegali, che possono mettere in pericolo valori quali la libertà di espressione, il pluralismo dei media, la sicurezza pubblica, il corretto svolgimento dei processi elettorali, la protezione dei minori.
Una volta individuati i rischi e comunicati alla Commissione, le piattaforme sono tenute a realizzare «misure di attenuazione ragionevoli, proporzionate ed efficaci, adattate ai rischi sistemici specifici».
Il Dsa non «istituzionalizza la censura», come dice Zuckerberg, ma impone trasparenza sugli strumenti di moderazione dei contenuti e sulla loro adeguatezza. Se Meta vuole dismettere il fact-checking e «affidarsi completamente alle note della comunità, può farlo», come ha affermato Thomas Regnier, portavoce della Commissione Ue. La piattaforma è libera di scegliere il sistema da usare, purché esso sia «efficace».
Va detto che, nell’aprile 2024, in vista delle elezioni europee, la Commissione europea ha avviato un’indagine contro Meta per sospette violazioni del Dsa, tra l’altro per presunte carenze nel contrasto alla disinformazione e nei meccanismi di segnalazione. La piattaforma avrebbe violato il regolamento europeo, con riguardo agli obblighi di trasparenza e di mitigazione dei rischi per il dibattito pubblico e i processi elettorali.
Gli impegni volontari
Non solo a Meta non è imposta alcuna censura, ma anzi dal 2016 l’azienda si è volontariamente dotata di un programma di verifica dei contenuti, affidandolo a organizzazioni indipendenti e quotidiani accreditati dall’International Fact-Checking Network. Nel 2018, in attuazione di una comunicazione dell’Ue sulla disinformazione, rappresentanti delle piattaforme online, inclusa Meta, hanno elaborato e sottoscritto un codice di autoregolamentazione sul medesimo tema, che prevede ad esempio la trasparenza dei messaggi pubblicitari di natura politica e il contrasto a profili falsi e “bot”.
Nel 2022 il codice è stato “rafforzato” con una gamma più ampia di impegni e misure, lasciando ai firmatari la scelta di quelli cui aderire. Dunque, il tutto si è basato sulla volontarietà. Anche il Dsa, come detto, rimette al gestore della piattaforma la scelta degli strumenti da adottare. Non c’è alcuna censura calata dall’alto.
Le note della comunità
Le note della comunità possono essere efficaci per contrastare la disinformazione? Una risposta in concreto è offerta dal funzionamento delle stesse su X, già Twitter, che le adotta da tempo. In occasione delle elezioni statunitensi del 2024, Poynter ha rilevato che le community notes di X avevano un effetto oltremodo marginale; l’organizzazione Science Feedback, membro dell’Efcsn, associazione indipendente di organizzazioni europee di verifica dei fatti, ha reso noto che la maggior parte dei contenuti su X che i fact-checker avevano qualificato come falsi o fuorvianti non presentava segni visibili di moderazione.
Nel dicembre 2023 la Commissione Ue ha aperto un’indagine su X, avente a oggetto, tra l’altro, «l’efficacia delle misure adottate per contrastare la manipolazione delle informazioni», e in particolare il «sistema di “note della collettività”».
Il vertice di Meta avrebbe fatto meglio ad attendere il responso della Commissione. Zuckerberg ha pure dismesso l’uso di programmi per favorire inclusività e diversità, in quanto «antiquati» rispetto ai «nuovi scenari». Si tratta di cambiamenti che avvengono in nome del free speech, ma – come spiegato su queste pagine – evidentemente la ragione politica, oltre a quella economica, conta più di tutto il resto.
Il bilanciamento tra libertà di espressione e tutela di altri diritti e libertà si sta squilibrando in modo preoccupante.
© Riproduzione riservata
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link