Wikipedia si arma contro le fake news

Notizie false, distorte o filtrate e incitamento all’odio sono considerati un pericolo per la democrazia. Per questo in molti paesi si studiano leggi per fermarli. Ma la soluzione migliore è rifarsi all’esperienza di Wikipedia, evitando censure preventive.

Rischio di censura preventiva

Notizie false, distorte o filtrate e incitamento all’odio sono considerati un pericolo per la democrazia. Il governo tedesco, preoccupato che le “fake news” possano influenzare le prossime elezioni, ha messo a punto una bozza di legge che prevede forti sanzioni per chi diffonde “fake” (fino a 50 milioni di euro per i social media). Anche in Italia di recente è stato presentato un disegno di legge bipartisan contro la manipolazione dell’informazione e le campagne d’odio che stabilisce ammende, seppur più modeste, e carcere.

Il tema è salito alla ribalta in seguito alla pubblicazione di notizie false durante l’ultima campagna presidenziale americana e alla crescente diffusione on-line di informazioni distorte (evidenziata, per esempio, da un’inchiesta di BuzzFeed News sull’Italia, a fine 2016).

Se e in quale misura le notizie false sui social network abbiano effettivamente influenzato il voto negli Usa è una questione dibattuta. In un recente studio sulle elezioni americane, gli economisti Hunt Allcott e Matthew Gentzkow hanno sottolineato che i social sono stati una fonte di informazione importante, ma non dominante rispetto alla Tv. Al di là del discutibile impatto sul voto, lo studio non sminuisce il problema, ma ne sottolinea le molteplici sfaccettature.

Come si può affrontare il pericolo delle “fake news” online? Vi sono forti dubbi sulla capacità dei social di elaborare procedure di investigazione e cancellazione dei contenuti che siano operative nei brevi termini richiesti da una legge, come per esempio quella proposta in Germania (24 ore per rimuovere contenuti palesemente illegali e sette giorni per verificare quelli incerti). Dinanzi al rischio sanzioni, i social potrebbero applicare meccanismi di censura preventiva e permanente. Ciò ha spinto le Nazioni Unite, l’Organizzazione per la sicurezza e la cooperazione in Europa (Osce) e altre istituzioni a una dichiarazione congiunta che, pur ribadendo il timore per le “fake news”, sottolinea il rischio censura. Anche il Commissario europeo per il mercato unico digitale si è pronunciato per la libertà di espressione e contro le azioni punitive, quando ci ricordano l’orwelliano “ministero della Verità”.

Il caso Wikipedia

Wikipedia, la libera enciclopedia online, ha molto da insegnare su come si possono progettare piattaforme social o migliorare quelle esistenti per arginare contenuti “fake”.

Un bene pubblico dell’era Internet, Wikipedia ha appena compiuto sedici anni ed è il risultato dello sforzo collettivo di una comunità virtuale che opera secondo una divisione del lavoro tipica del movimento open source. Il collante della comunità di scopo o “purpose-built” (vedi tabella 1) è una missione condivisa: la produzione di un bene “non rivale e non escludibile”. Agli esordi, Wikipedia era considerata un progetto impossibile, anche per i dubbi sulla capacità di resistere ad atti di vandalismo, ovvero ai “fake”. Tuttavia, nonostante alcuni limiti qualitativi inevitabili in una collezione così vasta di informazioni, Wikipedia ha smentito le perplessità. Attualmente conta circa 41 milioni di articoli disponibili in oltre 290 lingue e 70mila redattori attivi.

Le caratteristiche essenziali della “governance” di Wikipedia sono l’apertura e la trasparenza, abbinate a soluzioni tecniche che facilitano la collaborazione degli utenti nel fact checking e nella neutralizzazione degli atti vandalici. In un articolo del 2003, avevo sottolineato che uno dei principali segreti del successo dell’enciclopedia è la tecnologia Wiki che abbatte i costi di transazione relativi alla cancellazione dei vandalismi, consentendo di recuperare la versione corretta di un articolo con un singolo click.

Per evitare le sanzioni previste dagli interventi legislativi in discussione in vari paesi, le piattaforme on-line potrebbero ricorrere a censura preventiva e cedere alla tentazione di affidarsi in misura crescente ad algoritmi che identificano i “fake”. Anche se fosse possibile automatizzare l’operazione in modo efficace, cosa improbabile, in quale misura sarebbe sensato cedere il controllo delle informazioni ad aziende globali orientate al profitto?

L’esperienza di Wikipedia suggerisce che vi sono altre soluzioni possibili, capaci di salvaguardare la qualità dell’informazione sulla rete, preservando l’elemento collaborativo umano. Ciò implica che non ci si deve limitare a fissare sanzioni, ma si deve richiedere alle piattaforme il rispetto di alcuni principi generali: a) massima apertura e trasparenza, favorendo il confronto all’interno di spazi on-line dedicati; b) fornire a un numero significativo di utenti la possibilità di segnalare pubblicamente le informazioni sospette (red-flagging) e anche di rimuovere i messaggi d’odio, attraverso soluzioni ispirate alla tecnologia Wiki; c) regole di base sulla verificabilità delle fonti. In tal modo si possono porre le condizioni per vincere la battaglia contro le “fake news”. Perché, come insegna Eric S. Raymond, uno dei padri della comunità open source, “con molti occhi che guardano, tutti gli errori vengono a galla”.

Tabella: Vulnerabilità alle “fake news”, per tipologia di comunità virtuali. Adattata da: fonte

(Andrea Ciffolilli via LaVoce.info, cc-by)

Rispondi

 SKG Auto & Tir Services s.r.o.

Vai al sito

news giorno x giorno

agosto: 2017
L M M G V S D
« Lug    
 123456
78910111213
14151617181920
21222324252627
28293031  

ARCHIVIO

pubblicità google