I colossi della tecnologia si uniscono nella lotta contro gli estremismi

Facebook, YouTube, Twitter e Microsoft hanno creato un forum comune per contrastare il terrorismo, dopo anni di critiche riguardo all’assenza di cooperazione da parte delle corporazioni tecnologiche.

Le aziende della Silicon Valley hanno annunciato il Global Internet Forum on Counter Terrorism lunedì, affermando che la collaborazione si concentrerà sulle soluzioni tecnologiche, la ricerca e le partnership con i governi e i gruppi civici.

Le aziende tecnologiche hanno duramente lottato per bilanciare le loro missioni di sostegno della libertà di parola con la necessità di rimuovere e prevenire la diffusione del contenuto terroristico. Le aziende hanno affrontato un intenso esame sul modo in cui i gruppi terroristici hanno utilizzato il sito per l’assunzione e per diffondere messaggi odiosi e violenti.
Nell’ambito del nuovo forum, le aziende hanno dichiarato di condividere le migliori pratiche in materia di “rilevazione dei contenuti e tecniche di classificazione mediante l’apprendimento macchina” e “definire metodi standard di trasparenza standard per la rimozione dei contenuti terroristici”. Attraverso una partnership con un comitato delle Nazioni Unite contro il terrorismo e una serie di organizzazioni, le aziende tecnologiche hanno affermato di “individuare come meglio contrastare l’estremismo e l’odio online, rispettando la libertà di espressione e privacy”.

Nel mese di dicembre, Google, Facebook, Twitter e Microsoft hanno presentato un’iniziativa simile alla condivisione delle informazioni, impegnandosi a collaborare per creare un database di impronte digitali uniche conosciute come “hashes” per video e immagini che promuovono il terrorismo. Ciò significa che quando un’azienda firma e rimuove un pezzo di contenuti che presenta un’immagine terroristica violenta o un video di reclutamento, le altre società possono utilizzare il hash per identificare e riprendere lo stesso contenuto sulle loro piattaforme.

I documenti interni di Facebook recentemente ottenuti dal Guardian hanno fornito una finestra nelle regole e nei metodi complessi dietro la moderazione del contenuto terroristico da parte della società dei social media. Le linee guida per i moderatori hanno rivelato che l’azienda richiede loro di imparare i nomi e le facce di più di 600 leader terroristici, ad esempio. I documenti perduti hanno anche rivelato che Facebook ha individuato più di 1.300 posizioni sul sito come “minacce terroristiche credibili” in un solo mese e ha sostenuto che le informazioni scoperte erano “un aiuto enorme per identificare nuove organizzazioni terroristiche”.

Facebook ha anche investito in software per cercare di interrompere i contenuti estremisti prima di essere pubblicato sul proprio sito attraverso proiezioni proattive. Ma alcuni hanno sostenuto che i terroristi hanno trovato modi per superare le regole e continuare a pubblicare contenuti.

I moderatori hanno anche sostenuto di essere sottopagati e sottovalutati, costretti a lavorare con estrema manovra che vedono contenuti violenti e grafici per ore. L’inchiesta Guardian ha recentemente rivelato che Facebook mette in pericolo la sicurezza dei moderatori in modo da esporre involontariamente i propri dati personali a sospetti terroristi.

Le aziende tecnologiche hanno affrontato una crescente pressione da parte dei governi di tutto il mondo per fermare la diffusione della propaganda estremista. Lo scorso anno, i funzionari della Casa Bianca hanno incontrato Apple, Facebook, Twitter e Microsoft per discutere l’argomento.

Il primo ministro britannico, Theresa May, ha recentemente rinnovato la sua campagna contro le società tecnologiche con un tentativo di punizione per punire piattaforme che non adottano misure sufficienti contro la propaganda terroristica. In una recente riunione bilaterale a Parigi, il maggio e il presidente francese Emmanuel Macron hanno affermato di esplorare nuove obbligazioni legali per le aziende tecnologiche che non eliminerebbero i contenuti infiammatori, incluse eventuali multe.

Mentre i governi hanno invitato aziende come Facebook a fare di più, il social network ha anche affrontato una sfida per la censura eticamente discutibile di contenuti non terroristici sotto la sembianza di contrastare la propaganda. Facebook ha scatenato la polemica dello scorso anno quando ha censurato accademici, giornalisti e altri dopo la morte di un militante separatista di Kashmiri ad alto profilo che è stato etichettato come terrorista da parte delle autorità indiane, ma considerato un combattente per la libertà da parte di molti Kashmir e Pakistan.

All’inizio di questo mese, Facebook ha censurato un gruppo di sostenitori dell’indipendenza cecena per aver violato le politiche rivolte a “organizzazioni impegnate in attività terroristiche”, un altro esempio della rete

Reply