Digitalmente

Fake News e Social Sensing, le due facce dei Social Network

di Redazione

10 minuti

In Italia, passiamo quasi due ore al giorno sui Social Network, esponendoci ad un flusso senza fine di informazioni e producendo costantemente contenuti. Per comprendere meglio cosa accade davvero in quelle due ore, abbiamo intervistato Stefano Cresci, ricercatore dell’Istituto di Informatica e Telematica del CNR.

Chi è Stefano Cresci, quali sono i campi in cui opera e perché ritiene fondamentale l’analisi del web, dei contenuti e dell’utenza?
«La mia attività di ricerca si colloca a metà tra data science e web science, cioè la raccolta e l’analisi delle informazioni che si trovano sui siti web e sui social network tramite tecniche di intelligenza artificiale e machine learning. Poi mi occupo di natural processing, l’analisi del linguaggio naturale o di grafi, le reti di interazioni tra gli utenti.


Per quanto riguarda gli ambiti applicativi, mi occupo di due linee principali relative all’analisi dei contenuti online però da punti di vista opposti: da una parte, pensare a come sfruttare le informazioni che gli utenti spontaneamente condividono online per fare del bene e, dall’altra, una serie di lavori che parte dal presupposto che purtroppo molto di quello che vediamo online oggi non è credibile, verosimile, reale e quindi cercare di capire come poter distinguere per esempio le notizie, gli utenti fake da quelli invece credibili e autorevoli.


Per quanto riguarda la parte degli usi positivi dei dati online, lavoro sul Social Sensing, cioè l’utilizzo di queste informazioni per la gestione delle emergenze, elaborando ciò che gli utenti condividono liberamente. Entrambi gli ambiti sono importanti perché una parte della nostra società e della nostra vita sociale ormai si svolge online sul web e sugli online social network. Dal punto di vista sociale, abbiamo visto come problemi legati alla polarizzazione online, le false informazioni, le campagne di manipolazione dell’opinione pubblica possono creare anche dei grossi problemi sociali».



Abbiamo avuto modo di leggere il suo articolo dal titolo provocatorio Social Media against Society, quali sono le conclusioni e gli spunti più interessanti che emergono?
«L’articolo Social Media against Society è stato fatto in collaborazione con alcuni colleghi di SUPSI, la Scuola Universitaria Professionale della Svizzera Italiana, nell’ambito di una pubblicazione più ampia di scienze politiche. L’obiettivo era ripercorrere alcune manipolazioni perpetrate sui social media nel corso della campagna elettorale per le elezioni presidenziali negli Stati Uniti del 2020.


Oltre ad elencare quali erano alcune delle teorie cospirazioniste e fake news circolate nell’ambito del dibattito online che ha preceduto le elezioni del 2020 negli Stati Uniti, lo studio intendeva fornire una spiegazione del perché le piattaforme social sono vulnerabili alle manipolazioni, alla polarizzazione, alle teorie del complotto e alle false notizie.


Per via della grandissima mole di informazioni su queste piattaforme, è necessario che parte della gestione delle piattaforme stesse sia demandata agli algoritmi che in maniera automatica indicizzano i contenuti, li organizzano, li rendono disponibili per gli utenti. Quindi, un utente su una piattaforma social non ha accesso a tutta l’informazione, ma gliene viene presentata una piccola parte: quella che l’algoritmo ritiene sia più interessante per quello specifico utente.


In aggiunta agli algoritmi, ci sono anche i bias cognitivi delle persone, cioè la preferenza verso informazioni che confermano delle nostre visioni preconcette, che non mettono in discussione quello che noi già crediamo. Inoltre, tendiamo a ricordarci più facilmente queste informazioni rispetto a quelle contrastanti a cui siamo comunque esposti.


Questi due aspetti – gli algoritmi e i bias, quindi aspetti tecnologici ma anche umani – vanno a braccetto con altre caratteristiche di queste piattaforme social, ad esempio l’anonimato. Nella quasi totalità dei social network, ad oggi, non è richiesta una verifica dell’identità, ma si può creare un account o anche più d’uno di persone che non esistono o con identità altrui. Inoltre, l’anonimato può mascherare anche l’automazione: alcune attività sui social possano essere automatizzate con dei software in modo tale che il mio account fake possa ricondividere dei contenuti, contattare delle altre persone, postare dei messaggi, mettere mi piace a determinati contenuti.


Chi conosce i meccanismi con cui funzionano questi algoritmi può sfruttarli a proprio favore, per esempio per amplificare certe notizie piuttosto che altre. L’insieme di bias cognitivi, il supporto per l’anonimato, il supporto per l’automazione rende le piattaforme vulnerabili alla disinformazione, alla misinformazione, alla polarizzazione, alla manipolazione in generale dei dibattiti online e delle opinioni. In questi in questi ambienti social, le persone che la pensano diversamente tendono a non incontrarsi mai, poiché vengono rinchiuse nelle cosiddette “camere dell’eco” in cui si è circondati da altre con cui condividono valori e posizioni, così si rafforzano le proprie opinioni e senza essere mai esposto a punti di vista differente dal proprio».



Secondo lei quanto i social network influiscono nelle scelte politiche del cittadino-utente?
«Per quanto riguarda il fatto che i social network possano influire sulle scelte politiche degli utenti, non ci sono – che io sappia – studi che abbiano effettivamente dimostrato un effetto misurabile e quantificabile. Quello che sappiamo è che è sicuramente una percentuale sempre maggiore della popolazione si informa di politica affidandosi a fonti online, compresi i contenuti che circolano sui social network, piuttosto che a fonti tradizionali, come potevano essere televisione, radio o quotidiani.


Sicuramente, c’è stato negli ultimi anni un progressivo spostamento come sorgenti informative da media tradizionali a media online e social media, soprattutto tra i più giovani, quindi è prevedibile che nel futuro questo trend si mantenga. Da un certo punto di vista, ci spinge a cercare di capire che tipo di informazione circola sugli online network e anche eventualmente a controllare regolamentare eventuali problemi dell’informazione online.


Studiare e quantificare quanto le notizie online possano far cambiare l’opinione politica di un utente è estremamente difficile. Ci sono stati alcuni studi, per esempio, sui vaccini nel periodo della pandemia chiedendosi se il tipo di fonte d’informazione poteva ridurre la propensione a vaccinarsi da parte della popolazione. Ma i risultati sono stati contrastanti: alcuni studi hanno trovato che effettivamente disinformazione sulla pandemia e sui vaccini aveva un impatto; altri studi hanno ottenuto i risultati opposti. Non siamo ancora in grado probabilmente di dare una risposta chiara».

E i politici dovrebbero sottostare a una netiquette ad hoc?
«Onestamente, non credo che i politici dovrebbero sottostare ad un’etichetta particolare, non penso che questa sarebbe una soluzione. Al massimo, si potrebbero introdurre alcuni canoni per il dibattito online tali da consentire a chi ascolta di comprendere in maniera chiara i temi e le proposte. A ciò si potrebbe affiancare un’esposizione più bilanciata di tutti i candidati o di tutti i partiti politici, evitando che alcune voci siano estremamente amplificate, mentre altre siano schiacciate sotto il vociare.

Già con questi accorgimenti, si eleverebbe notevolmente il livello del dibattito, anche se, purtroppo, non credo sia una strada percorribile, poiché finché ci sarà interesse dei politici a raggiungere una fetta sempre maggiore di utenti, verranno utilizzati tutti gli strumenti di cui vi ho parlato.

Credo, invece, molto di più nel potenziare le capacità degli utenti di capire quando potrebbero essere manipolati, di informarsi in maniera più approfondita, di sviluppare il proprio pensiero critico, di avere una digital literacy che gli consenta di comprendere meglio gli strumenti che stanno utilizzando, di avere più consapevolezza dei propri limiti, perché noi esseri umani siamo affetti da tutta una serie di pregiudizi che, purtroppo, ci rendono vulnerabili a certi tipi di disinformazione».



Nel prossimo futuro si attendono sviluppi nella direzione del Metaverso, a quali opportunità e a quali rischi saremo esposti?
«Il Metaverso lo possiamo vedere come semplificazione dei social network che stiamo vivendo in questo momento: invece di avere magari diversi social network, quindi diverse piattaforme ognuna separata dalle altre, potremmo avere uno spazio unico dove tutte queste piattaforme, tantissime applicazioni e tantissimi utenti con interessi completamente differenti vanno tutti a convogliare insieme in un enorme collettore di applicazioni, contenuti, utenti e piattaforme.


Non è facile, in questo momento, immaginare tutte le opportunità che si verrebbero a creare, però valgono gli stessi discorsi che facevamo all’inizio per gli online social network: la quantità di dati che si trovano condivisi liberamente online su sui social network e sui social media oggi ha aperto a grandissime opportunità di business, ma lo stesso identico discorso vale anche per i rischi.


Mettere insieme tutti questi dati su un’unica piattaforma comporterebbe ovviamente rischi enormi per la sicurezza e la privacy sia dei degli individui singolarmente sia delle nostre società. Basti pensare, per esempio, che Meta sta investendo moltissimo nella realtà aumentata o virtuale, nei sensori indossabili e impianti neurali, quindi immaginiamoci quanti dati una piattaforma di questo tipo sarebbe in grado di raccogliere.


Tra l’altro, Facebook quindi Meta è la stessa piattaforma che si è rivelata vulnerabile, consentendo a Cambridge Analytica di raccogliere dati sugli utenti, di sfruttarli per fini elettorali con scopi non trasparenti e probabilmente nemmeno corretti. Quindi, abbiamo voglia di mettere nelle mani di un’azienda una mole enorme di informazioni sensibili? Non conosco la risposta, ma credo che sia una domanda da porci per essere consapevoli dei rischi che andremo a correre».



Parliamo di fake news. Le notizie false o artefatte sono una pratica con attestazioni storiche antichissime, quali sono le differenze e le innovazioni portate dai social network? Inoltre, c’è un riscontro analitico sulla condotta degli utenti più esposti alla disinformazione?
«Non sono certo nate con il web e con i social network, sono qualcosa che fa parte purtroppo della nostra realtà probabilmente anche proprio del nostro essere uomini: mentire fa parte del nostro essere umani. Come mai se ne sta parlando recentemente in maniera veramente preponderante? Perché è vero che sono fenomeni che sono sempre esistiti, però la scala e la natura del problema è cambiata tantissimo da quando si sono diffusi gli online social network.


Queste tecnologie hanno svolto il ruolo di catalizzatori per un sacco di dinamiche sociali, non soltanto per la disinformazione e la misinformazione. Per la diffusione delle notizie false, si crea una combinazione di fattori tecnologici e sociali che porta le fake news a circolare molto più di quanto non avrebbe fatto se quegli stessi utenti fossero stati sparpagliati in giro per il mondo senza la possibilità di mettersi in contatto l’uno con l’altro.


Magari quella notizia sarebbe stata condivisa da uno di questi utenti ad altre persone che la pensano in maniera differente e quindi non avrebbe superato il primo grado di separazione. In aggiunta, va menzionato l’anonimato: poter condividere contenuti senza metterci la propria faccia disinibisce le persone, che possono essere invogliate a condividere una notizia pur sapendo che è falsa, purché ad esempio supporti la propria fazione rispetto ad un argomento polarizzante.


La ricondivisione di notizie false o di bassa qualità può essere svolta anche con metodi poco trasparenti come l’automazione attraverso i social bot, cioè account che sono dei robot automatizzati che svolgono tutta una serie di operazioni a ritmi che un umano non sarebbe in grado di tenere. Inoltre, l’ascesa dei social network corrisponde anche con altri avanzamenti tecnologici che si sono sviluppati negli ultimi anni, come per esempio l’intelligenza artificiale che offre la possibilità di scrivere delle fake news in automatico su larga scala, magari anche tradotte in varie lingue.


Gli utenti più vulnerabili alla disinformazione hanno delle determinate caratteristiche demografiche e psicografiche: per esempio, gli appartenenti a determinate fasce di età sono risultati essere più esposti, forse perché hanno meno dimestichezza con l’utilizzo delle tecnologie, delle piattaforme social e quindi sono più facilmente manipolabili; oppure persone che hanno uno interessamento politico particolare sono più inclini a condividere a queste notizie. Anche se su queste ultime è complesso comprendere se agiscono poiché convinte o perché interessate a inquinare il dibattito.


Ed è proprio per questo motivo che è importante rendere gli utenti consapevoli di quali sono i rischi che corriamo, consapevoli che alcuni nostri comportamenti o alcune nostre caratteristiche ci possono rendere più vulnerabili».



Ci può parlare del Social Sensing?
«Il Social Sensing nasce dalla visione degli utenti come dei sensori sociali: le persone che si trovano a essere testimoni di avvenimenti spesso ne parlano immediatamente sui social. Alcuni social network, come Twitter, per le loro caratteristiche vengono proprio utilizzati per delle pratiche che possono essere definite come di giornalismo partecipativo.


Quando gli utenti tendono a condividere in maniera spontanea e quasi immediata quello che si verifica attorno a loro, esiste la possibilità di raccogliere in tempo reale queste informazioni e di sfruttarle per fare del bene. Ad esempio, mi sono occupato della raccolta e analisi delle informazioni che vengono condivise a seguito di disastri naturali in collaborazione con l’Istituto Nazionale di Geofisica e Vulcanologia. A partire dal 2014, ha manifestato interesse verso il mondo social e online per raccogliere tutte le informazioni, tutti i commenti degli utenti a seguito di un evento sismico così da capire la gravità percepita.

Per le persone che si trovano a dover gestire la macchina dei soccorsi nei primissimi minuti, queste informazioni sono estremamente utili per avere un quadro della situazione e per organizzare gli interventi con una visione quanto più ampia possibile. Per questo motivo ho lavorato con i miei colleghi alla realizzazione di sistemi per la raccolta di dati in tempo reale da Twitter, che li analizzano e li rendono intellegibili nelle dashboard delle piattaforme che gli analisti di Roma dell’INGV e della Protezione Civile potevano consultare per avere un quadro in tempo reale della situazione.


In questo modo, associando una posizione geografica ad ogni messaggio, cerchiamo di capire se la persona che fornisce informazioni sull’evento sismico parla di effetti gravi oppure di aver sentito il terremoto ma senza aver assistito a nessuna conseguenza particolare. Ovviamente, la combinazione dell’informazione geografica con l’informazione su eventuali danni consentono di realizzare delle mappe, dove zone geografiche differenti vengono colorate in base proprio alla conseguenze che le persone avevano riportato in quella particolare zona geografica, chiamate “mappe di crisi“.


Tutte le nostre analisi avvengono in maniera completamente automatica, quindi sempre sfruttando tecniche di intelligenza artificiale e machine learning che vanno ad analizzare questi messaggi condivisi in tempo reale ed estraggono le informazioni che riteniamo essere interessanti. Queste vengono visualizzate e inserite nelle mappe di crisi che si aggiornano sempre in tempo reale man mano che più messaggi sono stati condivisi e più messaggi sono stati raccolti dal nostro sistema».



L’attività di ricerca di Stefano Cresci si sviluppa nell’ambito della social media analysis, ed in particolare nel contrasto alla diffusione di disinformazione, di falsi contenuti (fake news) e falsi profili (social bots, trolls, ecc.) online.

La ricerca di Stefano comprende anche la tematica del social sensing, mirata a sfruttare le informazioni attendibili presenti sui social media per migliorare la gestione di situazioni di emergenza quali disastri naturali ed emergenze sanitarie, come la pandemia di COVID-19.

Su questi temi, ha pubblicato un libro per la collana Advances in Information Security e più di 50 articoli scientifici, ha partecipato a progetti nazionali ed europei, ha tenuto keynote a conferenze internazionali.

Grazie alle sue ricerche, ha vinto un Grant SAGE, il premio IEEE Computer Society Italy Section Chapter 2018 PhD Thesis Award, il IEEE Next-Generation Data Scientist Award e l’ERCIM Cor Baayen Young Researcher Award.

Riproduzione Riservata © 2022 Scitizenship

SHARE ON