Un recente studio di Nature ha fatto chiarezza su come nascono e si diffondono i comportamenti antisociali online sui social media
I dati statistici evidenziano un aumento significativo dell’odio e della violenza verbale online in Italia negli ultimi anni. Sempre più persone scelgono di sfogare rabbia e rancore dietro uno schermo, spesso utilizzando profili falsi, per umiliare gli altri. È comune sperimentare questi sentimenti negativi, ma è importante imparare a gestirli in modo costruttivo anziché distruttivo.
Infatti, quante volte vi sarà capitato di imbattervi in una serie di commenti negativi oppure pieni di odio sui social media, magari sotto una semplice notizia di cronaca?
Statisticamente parlando, è un’esperienza molto comune: un recente studio pubblicato su Nature ha gettato luce su come si sviluppano e diffondono gli atteggiamenti d’odio online.
Da diversi anni la ricerca si è concentrata su fenomeni come la polarizzazione, la disinformazione e i comportamenti antisociali sul web, tuttavia spesso la disponibilità di dati sufficienti rappresenta una sfida.
Lo studio pubblicato su Nature è riuscito a esaminare come i comportamenti tossici si sviluppino e si diffondano in modo simile su Facebook, Gab, Reddit, Telegram, Twitter, Usenet, Voat e Youtube.
La ricerca sul linguaggio dannoso e la violenza online rivela quanto sia difficile distinguere se il comportamento negativo sui social media sia innescato dalla personalità dell’utente o dalle dinamiche stesse della piattaforma.
I social spingono a odiare di più?
Gli algoritmi e il design delle piattaforme sono progettati per massimizzare l’interazione degli utenti, il che può influenzare il linguaggio utilizzato e amplificare le problematiche sociali, incluso il deterioramento del discorso pubblico.
Per comprendere appieno le conversazioni online, i ricercatori hanno analizzato circa 500 milioni di commenti su diverse piattaforme social, considerando la definizione di commento tossico fornita dall’API Perspective di Google: un commento scortese, irrispettoso o irragionevole che potrebbe portare le persone a lasciare una discussione.
Utilizzando questa definizione, l’API assegna un punteggio di tossicità da 0 a 1 a ciascun testo, indicando la probabilità che venga percepito come tossico, mentre un punteggio superiore a 0,6 viene considerato tossico.
Un dato significativo emerso è che il numero di utenti coinvolti in una conversazione tende a diminuire man mano che questa si prolunga, ma quelli che rimangono partecipano in modo più attivo.
Lo studio ha esaminato come la durata delle conversazioni sia correlata alla probabilità di incontrare commenti tossici, rilevando un aumento della tossicità all’aumentare della durata della discussione, indipendentemente dalla piattaforma e dall’argomento.
Inoltre, gli individui non evitano automaticamente gli ambienti online dove potrebbero verificarsi polemiche: le percentuali di abbandono di una conversazione sono simili sia quando emergono commenti d’odio che quando non ci sono.
Infine, lo studio esplora le motivazioni dietro la partecipazione alle conversazioni online tossiche e perché le discussioni più lunghe tendono ad essere più tossiche. Ecco le ragioni:
- Argomenti controversi: quando si verifica una controversia tra persone con opinioni opposte, i dibattiti diventano più lunghi e accesi, aumentando la tossicità. Ciò accade, ad esempio, quando utenti con diverse inclinazioni politiche conversano tra loro.
- Picchi di coinvolgimento: fattori come la dispersione del focus della discussione o l’intervento dei cosiddetti “troll” possono portare a una maggiore quota di scambi tossici.
- Mancanza di segnali non verbali e di presenza fisica: rispetto alle interazioni vis a vis, la percezione dell schermo agisce come uno scudo, permettendo un facile abbandono della conversazione e riducendo il senso di responsabilità.
- Formazione di echo chamber: le opinioni, sia online che offline, sono influenzate dalle nostre convinzioni preesistenti, portandoci a cercare e accettare informazioni che supportano le nostre idee, ignorando altre prospettive.
C’è da dire che lo studio smentisce l’opinione diffusa secondo cui i commenti tossici e maleducati, se ricevono molti like o non vengono moderati, possano normalizzare il comportamento d’odio e spingere gli utenti a emularlo: ecco, non ci sono prove a sostegno di questa posizione.
Infine, i ricercatori suggeriscono che monitorare la possibile polarizzazione tra gli utenti potrebbe aiutare a intervenire precocemente nelle discussioni online prima che diventino tossiche.
Tuttavia, è importante considerare anche altre dinamiche che influenzano il discorso online, come la presenza di influencer, troll, aspetti culturali e demografici, e la zona geografica.
Ciò che preoccupa maggiormente dell’hate speech è la mancanza di responsabilità e l’orgoglio con cui viene perpetrato, spesso contro individui sconosciuti.
Nel 2020, la quarta edizione della Mappa dell’Intolleranza, un progetto di Vox – Osservatorio Italiano sui diritti, ha evidenziato un aumento delle manifestazioni di odio sui social media: nel 66,7% dei tweet riguardanti i migranti, si sono registrate manifestazioni di odio, con un incremento delle ingiurie rivolte agli ebrei e ai musulmani rispetto al 2018.
Le donne sono sempre più bersaglio di commenti sessisti, mentre si è notato un calo degli episodi di odio virtuale nei confronti delle persone omosessuali.