• Mar. Ago 3rd, 2021

Violenza di genere online: un algoritmo per aiutare la comunità

Lug 5, 2021
violenza di genere online

Il web è una grande piazza virtuale, in cui trascorriamo buona parte del nostro tempo e, proprio come accade offline, incontriamo persone, scambiamo opinioni, raccontiamo storie e anche online, come per strada o in piazza, ci si può imbattere nella violenza.
Uno studio del marzo scorso, pubblicato dall’Unità Valore Aggiunto Europeo (Eava) del Servizio Ricerca del Parlamento europeo, ha evidenziato che la violenza informatica tocca soprattutto le donne, vittime di stalking, minacce e altri tipi di molestie molto più degli uomini. In particolare, negli ultimi 12 mesi, il 4 e il 7% di casi di violenza registrati nei Paesi dell’Unione Europea è stato indirizzato al genere femminile.
Indubbiamente, la pandemia ha peggiorato l’entità del fenomeno, perché la vita sociale delle persone si è trasferita sul web. Tuttavia, nonostante il sensibile aumento delle interazioni online dell’ultimo anno, né a livello nazionale né internazionale è stato elaborato un piano efficace per combattere questa forma di violenza, sempre più invasiva, anche se meno riconosciuta e riconoscibile di quella offline.
Serve tempo per raccogliere dati, studiare il fenomeno, trovare soluzioni per arginarlo e tutelare tante donne e ragazze che già chiedono aiuto.


Un tassello importante per la ricerca


Va proprio in questa direzione il progetto di Arianna Muti, studentessa di Bologna, laureata in ‘Language, society and communication’. Da sempre sensibile al problema della misoginia ha deciso di affrontarlo con la sua tesi di laurea e dare un aiuto concreto. Ha messo a punto un algoritmo che su Twitter classifica i contenuti in italiano e rileva se sono misogini e aggressivi. «L’idea nasce dalla professoressa di Informatica Elisabetta Fersini, che insieme ad un team di ricercatori ha organizzato un contest intitolato “Automatic Misogyny Identification” dove i partecipanti erano invitati a sviluppare un modello computazionale per identificare la misoginia e l’aggressività sui tweet in lingua italiana. Ho scelto di partecipare perché l’argomento mi è sempre stato a cuore. Più volte infatti mi è capitato, specialmente su Facebook, di rispondere a commenti misogini cercando di spiegare perché tale commento fosse offensivo», racconta Arianna Muti.
Così, ha intrapreso il suo studio insieme al ricercatore Alberto Barrón-Cedeño e con la supervisione del professor Fabio Tamburini. Ecco come funziona l’algoritmo: «È un classificatore e, come tale, classifica un tweet in tre categorie: misogino, non misogino, misogino aggressivo. Non è ancora implementato su Twitter, quindi, ad oggi non è in grado di scovare autonomamente tweet online, dev’essere l’utente a inserire un tweet».


Non solo un traguardo, ma anche un punto di partenza


Grazie a questo grande lavoro, oggi abbiamo a disposizione dei dati importanti da cui partire per ulteriori approfondimenti. «Osservando i tweet che sono stati utilizzati per addestrare e testare il modello, posso dire che le donne colpite maggiormente sono quelle che si espongono. Sono numerose infatti gli attacchi individuali, con tanto di hashtag, e meno comuni quelli indirizzati alla categoria delle donne in generale. Molti tweet si riferiscono all’aspetto esteriore delle donne (body shaming), ma non mancano anche tweet che degradano donne note al pubblico per le loro posizioni». La ricerca di Arianna Muti è perfettamente in linea con altri “tasselli del puzzle” forniti da altri studi. Uno arriva, per esempio, dalla ricerca pubblicata da Amnesty International Italia “Il Barometro dell’odio”, secondo cui le offese più frequenti sono proprio atteggiamenti di body shaming verso le donne, ma non esclusivamente. In particolare, rileva che nell’ultimo anno c’è stato uno “spostamento di odio”, che non mette più solo al centro del dileggio e dell’insulto il corpo, ma anche la vita professionale delle donne, come se fosse inaccettabile la loro scelta di essere autonome economicamente. Il lavoro della studentessa bolognese si allinea perfettamente anche con la conclusione tratta da Eava: nel mirino della violenza informatica ci sono le donne. Procede in questa stessa direzione anche una ricerca del Vox (Osservatorio italiano sui diritti), che mostra come i tweet d’odio siano diminuiti nell’ultimo anno, ma siano aumentati quelli contro le donne.

La ricerca non è ferma e l’algoritmo progettato da Arianna Muti ha raggiunto un traguardo importante: il modello è stato presentato nell’ambito dell’iniziativa ‘Evalita’, dedicata allo sviluppo di sistemi automatici per l’elaborazione del linguaggio naturale per la lingua italiana e «ha raggiunto la performance più elevata nel contest “Automatic Misogyny Identification”, con una precisione del 76% circa, superando di poco il team di ricerca di Google», spiega Arianna.

L’algoritmo è stato dichiarato miglior performance: ciò significa che è da qui che si può ripartire per fare di più, vuol dire che è un progetto con ampi margini di approfondimento e miglioramento e questo per la ricerca è un grande risultato.

Arianna Muti ne è consapevole e non sembra volersi fermare: «ho intenzione di fare un dottorato sull’identificazione della misoginia per aumentare le performance del modello, limitando il numero di falsi positivi. Inoltre mi piacerebbe lavorare anche sui meme, quindi riconoscere misoginia e aggressività in un contesto multimodale (testo + immagine)».
Indubbiamente, “far parlare” le immagini per stanare la misoginia è una strada che può portare risultati, ma è solo uno dei tanti possibili sviluppi.

Quando dentro i limiti ci sono le possibilità di sviluppo

La scelta è ricaduta su Twitter «perché grazie al limite di 280 caratteri è più facile individuare la misoginia», spiega Arianna Muti. Questo spinge a riflettere ancora sui possibili sviluppi del progetto, in particolare sugli altri social network e su quanto sarebbe utile sperimentare una soluzione simile su altre piattaforme. In questo modo, si potrebbe proteggere il web da contenuti offensivi agendo su più canali e quindi con una maggior efficacia. Del resto, secondo la ricerca dell’Eava è probabile che tra gli adolescenti la violenza online non si arresti, ma continui ad aumentare, soprattutto per via dell’uso dei social media sempre più in crescita; a maggior ragione trovare delle soluzioni è indispensabile.

Arianna Muti spiega che «sì è possibile replicare una soluzione come questa, ma il risultato non è garantito. Per far funzionare l’algoritmo su altri tipi di testo, ad esempio commenti o post di Facebook, basterebbe rimuovere il limite di 280 caratteri e riaddestrare il modello su testi più lunghi. Sicuramente in futuro farò un tentativo, ma testi più lunghi c’è più margine d’errore».

Questo dimostra come il progetto abbia in sé delle possibilità di crescita e ulteriore sviluppo: prima, però, si devono superare dei limiti imposti dalla tecnologia e dalla ricerca stessa. Per esempio, ad oggi l’algoritmo non è ancora implementato su Twitter e non è fruibile se non si possiedono le capacità di farlo girare. Il codice però è disponibile su GitHub, un servizio di hosting per progetti software.
Si dovrà attendere prima che l’algoritmo diventi operativo, ma aver compreso come si presentano i tweet e a chi sono diretti è un buon risultato, non solo per la ricerca ma anche per la comunità, che dovrebbe diventare sempre più consapevole di questo fenomeno. Questo aiuta a tenere più alta l’attenzione, individuarli più facilmente, magari per segnalarli alle autorità competenti.

«Il limite maggiore», spiega Arianna Muti, «è l’alto numero di falsi positivi, ovvero tweet che vengono classificati come misogini o misogini aggressivi ma in realtà non lo sono. Questo succede in presenza di alcune parole, ad esempio balena. Siccome la parola balena è apparsa in molti contesti misogini, l’algoritmo ha imparato che balena è misogino, quindi classifica la maggior parte dei tweet contenenti questa parola come misogini. Un altro problema arriva quando un commento misogino viene fatto sotto forma di complimento ironico, per esempio: “per essere una donna guidi molto bene”. Questa frase, implicitamente misogina, per l’algoritmo è ancora difficile da riconoscere». Prima di tutto, bisogna lavorare in questo senso e trovare soluzioni che in automatico possano riconoscere e segnalare i contenuti offensivi, limitando i casi di fraintendimento o errore.
Molti limiti dell’algoritmo non sono insormontabili, ma legati principalmente allo stadio ancora iniziale del lavoro; quindi, lasciano intravedere possibilità di sviluppo: servono tempo, studio e fiducia nelle potenzialità del progetto.

Uno studio che aiuta la comunità

Questo studio non è utile solo alla ricerca scientifica, ma anche alla comunità. La misoginia è un problema, così come la violenza, offline e online. L’algoritmo di Arianna Muti rima di tutto crea consapevolezza su questa piaga sociale. Chi la conosce la può individuare e la può combattere, nel suo piccolo, con gli strumenti che ha a disposizione, anche se limitati.
Con la consapevolezza arriva anche la fiducia, perché la ricerca va avanti e perché, come dimostra il lavoro di Arianna Muti, se c’è la volontà i mezzi per fare qualcosa esistono. E se non esistono si possono creare. Ciò non significa unicamente progettare algoritmi o dover mettere in campo competenze tecnologiche avanzate, ma vuol dire mettere alla prova se stessi/e, con le proprie capacità e la propria sensibilità. Si può agire attivamente e in modo costruttivo a tanti livelli, per uno scopo comune: arginare questo fenomeno dilagante, che può diventare distruttivo per molte donne.

Chissà che questo non possa aiutarci anche in fatto di empatia?

Federica Carla Crovella
Condividi il giornalismo costruttivo