Twitter sta apportando un cambiamento significativo al suo approccio verso la moderazione dei contenuti: i tweet considerati dannosi per la comunità saranno ora etichettati come tali e saranno limitati nel numero di persone che possono raggiungere.
In un post pubblicato ieri sul blog, il team di Twitter Safety ha rivelato la nuova etichetta, che sarà inizialmente applicata ai contenuti segnalati come incitamento all’odio. L’etichetta informerà anche che la visibilità della pubblicazione è stata limitata in quanto viola la policy della piattaforma in materia di hate speech.
Secondo la Hateful Conduct Policy di Twitter, questo tipo di contenuti si riferisce ad attacchi diretti contro singole persone o gruppi basati sulla loro razza, etnia, origine nazionale, estrazione sociale, orientamento sessuale, genere, identità di genere, affiliazione religiosa, età, disabilità o malattie gravi.
Il nuovo metodo di Twitter per la moderazione dei contenuti si chiama “Freedom of Speech, not Freedom of Reach” e viene applicato per aggirare l’approccio binario, spesso controverso, di “keep it up” e “take it down“.
“Queste etichette apportano un nuovo livello di trasparenza ai contenuti della piattaforma, punendo le violazioni dei tweet sia degli autori che degli altri utenti di Twitter“, ha commentato il team di Twitter Safety .
We’re adding more transparency to the enforcement actions we take on Tweets. As a first step, soon you’ll start to see labels on some Tweets identified as potentially violating our rules around Hateful Conduct letting you know that we’ve limited their visibility. …
— Twitter Safety (@TwitterSafety) April 17, 2023
In pratica, questo significa che le persone potranno comunque postare contenuti nocivi o dannosi per il pubblico, ma non saranno in grado di raggiungere un numero di utenti pari a quello precedente.
Questo approccio “laissez-faire” può essere piuttosto controverso, ma toglie un pesante fardello dalle spalle di Twitter – almeno in teoria – che non sarà più costretta ad assumere il ruolo di “polizia dei contenuti“.
Il team di Twitter Safety ha anche precisato che un account i cui tweet sono stati ripetutamente etichettati come “hate speech” verrà bannato più rapidamente.
Moderare milioni di tweet al giorno è un’impresa costosa
Facendo due calcoli, è impossibile che Twitter riesca a tenere sotto controllo i milioni di tweet che vengono pubblicati ogni giorno, soprattutto dopo che migliaia di moderatori di contenuti esterni sono stati licenziati da Elon Musk quando ha preso in mano le redini della società.
Inoltre, il capo di Tesla (TSLA) ha dichiarato in più occasioni che in passato la piattaforma non è stata trasparente e ha applicato procedure di “shadow banning”, tra cui la visibilità limitata, senza rivelare al pubblico il suo approccio.
Anche se gli autori dei tweet che il sistema etichetta potranno presentare un ricorso sulla decisione, Twitter non garantisce che questo reclamo venga esaminato nell’immediato o che ottenga risposta.
Anche in questo caso, il problema è la mancanza di personale per svolgere questo tipo di lavoro, ma il team di sicurezza ha comunque precisato che sta lavorando per creare una procedura ad hoc.
Le etichette si uniranno ad altre pratiche di Twitter
Queste etichette andranno ad aggiungersi ad altre iniziative che Twitter ha promosso ultimamente per affrontare il problema della libertà di parola rispetto a un’adeguata moderazione dei contenuti, come la creazione delle Community Notes.
Con queste note, la comunità di Twitter può fornire un contributo aggiuntivo ritenuto rilevante per un tweet, al fine di ridurre la disinformazione e la diffusione di fake news all’interno della piattaforma.
Insomma, sembra proprio che Musk voglia sfruttare la grande comunità di Twitter per ridurre i costi di moderazione dei contenuti, per poi costruire progressivamente un team che si occupi di questi aspetti nello specifico, piuttosto che assumere migliaia di lavoratori esterni per svolgere il dispendioso lavoro di sfogliare milioni di pubblicazioni ogni giorno.