La repressione di YouTube su QAnon non funziona

Il gruppo di estrema destra QAnon ha catturato l'attenzione del pubblico nelle ultime settimane per la sua capacità di manovrare le piattaforme dei social media per diffondere disinformazione e creare attenzione virale per le sue teorie del complotto.

Piattaforme di social media come Twitter e TikTok hanno preso provvedimenti contro il gruppo dopo che teorie del complotto a lungo confutate come #PizzaGate hanno ottenuto nuova attenzione, vietando gli account e disabilitando la visualizzazione dei suoi hashtag popolari nelle ricerche. Sebbene entrambe le piattaforme si siano dimostrate un terreno fertile per il gruppo, QAnon è prosperato su YouTube per anni, nonostante gli investimenti dell'azienda per moderarlo.

Ora, la piattaforma video sta cercando di impedire che i video di QAnon compaiano nei consigli degli utenti, ma un test di tendenze digitali ha rilevato che i video della teoria del complotto appaiono ancora in posizioni di rilievo sulla home page di YouTube.

QAnon sostenitore con la bandiera Q. Scott Olson / Getty Images

I sostenitori di QAnon credono in una serie di teorie del complotto confutate che hanno avuto origine sulle imageboard 4chan e 8chan alla fine del 2016. Il gruppo crede che una figura chiamata "Q", che afferma di far parte dell'amministrazione Trump, stia postando dispacci sulla guerra del presidente Donald Trump contro un complotto di "stato profondo". Il gruppo ha visto una crescita importante su YouTube dal 2016, poiché l'algoritmo basato sul coinvolgimento promuove i video di QAnon.

"QAnon ha inizialmente preso piede su YouTube", ha detto Will Partin, analista di ricerca presso Data & Society Research Institute, che studia il gruppo dal 2017. "È stato rilevato da YouTuber che hanno davvero dato le gambe alla cospirazione, e di conseguenza , lo ha davvero diffuso, e ha fatto il lavoro di collegarlo ad altre cose che erano già nell'aria ”tra i conservatori.

"Non puoi impedire a qualcuno di cercarlo attivamente"

Grazie alla natura stessa di YouTube, la piattaforma si è rivelata il luogo principale in cui hanno prosperato pseudo documentari e talk show di lunga durata che decifrano indizi o "breadcrumb" lasciati da "Q". Coloro che sono interessati alle teorie di QAnon potrebbero facilmente trovare altri utenti che consigliano video aggiuntivi nella sezione dei commenti o attraverso gli algoritmi di raccomandazione di YouTube - una funzionalità che è stata criticata dalla critica come un modo semplice per "radicalizzare" gli spettatori.

Ma ora, se digiti "QAnon" nella barra di ricerca di YouTube, il tuo schermo "evidenzierà fonti autorevoli" come testate giornalistiche ed esperti - parte del piano di YouTube per raccogliere contenuti concreti per combattere la disinformazione. YouTube ha anche iniziato a presentare caselle di testo e pannelli informativi che collegano a fonti di terze parti. Digital Trends ha rilevato che YouTube fornisce un collegamento all'articolo di Wikipedia su QAnon sotto i video correlati.

Youtube

YouTube ha affermato che da quando ha implementato le nuove politiche di moderazione dei contenuti a gennaio, ha visto una riduzione del 70% del numero di visualizzazioni che i contenuti di QAnon ricevono dai video consigliati. Poiché YouTube è un sito di una piattaforma video, non un sito di social networking, la moderazione avviene da video a video, non per account. E secondo un portavoce di YouTube, i sistemi della piattaforma sono stati modificati per abbassare il ranking sui contenuti QAnon nella barra laterale dei consigli, anche se stai guardando video simili.

Tuttavia, Digital Trends ha scoperto che dopo aver guardato una mezza dozzina di video relativi a QA non sulla piattaforma, YouTube presentava almeno tre video con cospirazioni non correlate a QA nella scheda "Tutti i consigli" sulla home page. Un video che è stato raccomandato menzionava la cospirazione che circonda il composto chimico Adrenochrome - ampiamente diffuso all'interno dei gruppi QAnon come ottenuto da figure d'élite di Hollywood attraverso l'uccisione di bambini - e aveva oltre 1 milione di visualizzazioni.

Un rappresentante di YouTube ha rifiutato di commentare questa storia.

Secondo Partin, il modo in cui i contenuti di QAnon vengono visualizzati su YouTube non si basa sui video consigliati agli utenti, ma sui contenuti stessi dei video correlati a QAnon. Gli influencer di QAnon spesso ne urlano un altro in un video o indirizzano gli spettatori ad altre pagine, indipendentemente da come YouTube modera i tag o i video di QAnon. Tuttavia, Partin ha affermato che ci sono alcuni tag QAnon che sono così oscuri che è impossibile per YouTube riempire i risultati di ricerca con contenuti reali da fonti affidabili.

"A quel punto, non puoi nasconderlo algoritmicamente, non puoi impedire a qualcuno di cercarlo attivamente", ha detto.

Partin ha detto che YouTube era una volta "il punto chiave" per un utente da presentare ai contenuti relativi a QAnon, ma ora la maggior parte del reclutamento avviene su Facebook, dove i gruppi QAnon privati ​​possono aumentare fino a centinaia di migliaia e sono particolarmente difficili da moderare.

Secondo quanto riferito dal New York Times, Facebook sta pianificando di fare una mossa simile per moderare il gruppo, seguendo le orme di Twitter e TikTok.

"Quando le piattaforme si spostano per vietare QAnon, spesso lo fanno contemporaneamente per avere forza numerica", ha affermato Partin. "Ma è davvero difficile costruire una politica su QAnon perché in gran parte è solo roba da elettori conservatori regolari".

Partin ha detto che l'unica cosa che spera che le persone capiscano sui pericoli dei contenuti non correlati a QA sui social media non è quanto ampiamente o quanto profondamente si creda alle sue cospirazioni, ma il rischio nel premere il pulsante "condividi" stesso.

"È impossibile conoscere le intenzioni di qualcuno, ma l'intenzione non ha molta importanza", ha detto. "Non mi interessa davvero se lo fanno o non ci credono, si comportano come fanno e stanno diffondendo questo contenuto e questa credibilità, indipendentemente dall'intenzione alla base."