Società

Elezioni e disinformazione digitale. Intervista con Walter Quattrociocchi

di Redazione

6 minuti

Il 2024 sarà un anno importante per gli equilibri geopolitici e vedrà il 49% della popolazione mondiale chiamato alle urne. Si voterà, tra gli altri, in Russia, India, Unione Europea e Stati Uniti. Quest’anno, noto come election year, l’anno delle elezioni, ha il potenziale di ridefinire gli equilibri globali. La circolazione delle informazioni e le fake news legate alla propaganda sono al centro dell’attenzione e richiedono una particolare vigilanza e riflessione in un contesto politico sempre più complesso e interconnesso.

A questo proposito, S-citizenship ha intervistato Walter Quattrociocchi, Responsabile del Center for Data Science and Complexity for Society della Sapienza Università di Roma, dove ricopre il ruolo di Professore Ordinario presso il Dipartimento di Informatica. Quattrociocchi è esperto, tra le altre cose, di modellazione basata sui dati delle dinamiche sociali come la diffusione di (dis)informazione e la previsione dei processi sociali di massa. In questa intervista, Quattrociocchi ha esplorato il ruolo dell’Intelligenza Artificiale (IA) nella diffusione di disinformazione digitale, soprattutto durante le elezioni, e ha discusso del potenziale pericolo delle informazioni false o fuorvianti.

Che ruolo gioca l’IA nell’ormai diffuso fenomeno della disinformazione digitale?
«L’IA crea ulteriore contenuto laddove già c’è, nel senso che non necessariamente innesca i marchingegni e nuovi paradigmi, ma il paradigma già c’è. C’è ipertrofia di informazione. L’effetto di tante informazioni è che si abbassa la fiducia degli utenti. La fonte conta sempre di meno, diventando quasi irriconoscibile in mezzo alla gran quantità di cose che vengono proposte. Si creano situazioni in cui ognuno cerca quello che gli piace e ignora informazioni a contrasto». 

Parlando di elezioni, quanto è pericolosa la diffusione di informazioni false o fuorvianti e in che modo l’IA vi contribuisce?
«È pericolosa nella dimensione in cui è pericolosa per i giornalisti. I maggiori critici di intelligenza artificiale e i maggiori sostenitori della teoria delle fake news sono i giornalisti. Ma i giornalisti lo fanno in quanto si trovano spodestati da una filiera di produzione di informazioni che 30 anni fa li vedeva protagonisti. Selezionavano loro quello che era più importante. Oggi, quello che seleziona che cosa è importante sono gli algoritmi di intrattenimento, tanto che l’informazione e l’intrattenimento più o meno coincidono perché la maggior parte delle informazioni passa sulle piattaforme social. 

Quanto sarà pericolosa per le elezioni? Quanto lo è sempre stata in ogni campagna elettorale. Faciliterà la polarizzazione e la divisione in gruppi tribali. Poi ognuno penserà quello che gli pare, ognuno trattiene informazioni vicine al suo sentire e ignora informazioni a contrasto e si crea amici virtuali con cui condivide la stessa posizione e quindi le posizioni si cristallizzano. Insomma, dal mio punto di vista, se sarà eletto Trump non sarà sicuramente colpa delle fake news o dell’intelligenza artificiale». 

Quali sono le sfide principali da affrontare, durante le elezioni, nel monitoraggio e nella gestione della disinformazione? È un fenomeno che si può controllare e, se sì, in che modo?
«Di disinformazione si parla circa dal 2014, quindi sono circa una decina di anni adesso. Noi abbiamo fatto un lavoro che è stato uno dei principali boost per la storia della disinformazione nel World Economic Forum e altri circa una decina di anni fa. Quello che notammo all’epoca era che ognuno cerca quello che gli pare e ignora le informazioni a contrasto. L’unica cosa che è cambiata veramente adesso è la grande quantità di contenuto. Cosa vogliamo monitorare? Che ognuno cerca quello che gli piace e ignora le informazioni a contrasto? Sì, magari sarebbe anche interessante, ma non necessariamente utile.

Io ho scritto uno dei primi pezzi sul Global Risk Report nel World Economic Forum riguardo la disinformazione nel 2016. A 8 anni di distanza, il World Economic Forum nel Global Risk Report porta ancora la disinformazione come problema principale. Se in 10 anni che si parla di questo come uno dei rischi globali ancora non abbiamo risolto nulla, probabilmente è perché stiamo affrontando la questione nella maniera sbagliata. Quello che dobbiamo fare lentamente è riformulare il problema. Il problema non è informazione vera che compete con informazione falsa e la gente si lascia manipolare. Ci sono tanti studi – i nostri, di tante altre università, tanti articoli scientifici – che dissentono sul fatto che l’essere umano sia così facilmente manipolabile attraverso l’informazione. Piuttosto c’è un’operazione di convincimento. In questa prassi, il problema non è informazione vera contro informazione falsa, ma è il cambiamento che portano le piattaforme. Se prima l’informazione circolava per informare, ora è uno dei tanti contenuti che circola per intrattenere. Il problema è quello, non i cattivi che vogliono sovvertire l’ordine globale. C’è una qualità di informazioni più bassa perché c’è più contenuto. Ma il contenuto di qualità non lo garantisce il giornalista. Se il giornalista viene pagato 7 euro a pezzo, non si può pretendere che ci sia la qualità delle informazioni circolanti». 

Cosa significa “infodemia” e qual è il ruolo dei social media nella diffusione di informazioni false o fuorvianti?
«L’infodemia è stata inizialmente definita nel 2003 come sovrabbondanza di informazioni. Poi è diventata sovrabbondanza di informazioni sia vere che false. Poi dopo ancora è tornata ad essere sovrabbondanza di informazioni in un ambiente informativo orientato all’intrattenimento. Questa è la definizione che portiamo noi su Cell nel 2022 insieme a tutti gli altri dell’Organizzazione Mondiale della Sanità. Si parla di informazioni che circolano su piattaforme che sono nate per intrattenere le persone e vendere pubblicità. Il problema si innesca lì, in quella dinamica». 

Cosa si intende per “camera dell’eco”? Quante delle nostre idee o credenze sono davvero nostre e quante, invece, manovrate da quello che leggiamo/sentiamo quotidianamente in rete?
«Le eco chambers sono un aspetto emergente in questa configurazione di sovrabbondanza di informazione a cui l’essere umano risponde. Invece di entrare in dissonanza cognitiva raccogliendo e processando tutte le diverse informazioni, l’individuo risponde pescando e trattenendo quello che è più familiare e ignorando quello che non è familiare. In questo processo, incontra anche persone che trovano le stesse informazioni familiari, quindi nasce un sodalizio per affinità elettiva ed emerge un’interazione virtuale con persone che hanno la stessa visione del mondo e gli stessi interessi. È lì che si crea l’eco chamber, cioè la cassa di risonanza: persone con affinità elettive che collaborano e rinforzano insieme una narrativa condivisa».

Questo sistema di disinformazione digitale, rafforzato dall’avvento dell’IA, rappresenta una minaccia per la democrazia? E, se sì, come difendersi?
«La disinformazione rappresenta esclusivamente una minaccia per i giornalisti, perché il cambiamento indotto dalle piattaforme social, è l’equivalente di quello che è successo con l’invenzione della stampa a caratteri mobili. C’è una grande proliferazione di contenuti e l’autorità di chi produce tende a essere offuscata perché c’è troppa informazione.

È un pericolo per la democrazia nella misura in cui questa troppa informazione diventa polarizzazione. Ma la polarizzazione non dipende necessariamente dall’informazione. La polarizzazione probabilmente dipende da una disparità socio-economica sempre crescente. La gente è arrabbiata e poi magari lo esprime anche sui social. Il problema non è leggere informazioni fake. L’informazione fake fornisce un’espediente per esprimere la propria rabbia. Quindi il problema è a monte. Cioè, se uno fa fatica ad arrivare alla fine del mese, è più facile che sia arrabbiato contro il sistema stabilito».

Walter Quattrociocchi è Professore Ordinario in Informatica presso la Sapienza Università di Roma e dirige il Center for Data Science and Complexity for Society. Le sue ricerche si concentrano sulla scienza dei dati, la scienza delle reti e la modellizzazione basata sui dati delle dinamiche sociali, come la diffusione di disinformazione. Ha pubblicato diverse ricerche, contribuendo anche al Global Risk Report del World Economic Forum. Quattrociocchi è stato inoltre Consulente Scientifico sul tema della dinamica delle informazioni per l’Autorità per le Garanzie nelle Comunicazioni italiana e per vari Governi.

Riproduzione Riservata © 2024 Scitizenship

Aggiornato il 05/15/2024

Articoli correlati