Notizie false e bolle di filtro: è nostro compito fermarle

fake news e filtro bolle fakenews filterbubbles 05Eli Pariser, co-fondatore di Avaaz Kris Krüg / Flickr È passato mezzo decennio da quando il co-fondatore di Avaaz, Eli Pariser, ha coniato per la prima volta la frase "bolla del filtro", ma il suo profetico TED Talk - e le sue preoccupazioni e avvertimenti - lo sono ancora più applicabili ora di quanto non fossero allora. In un'era di fake news, contenuti curati, esperienze personalizzate e profonde divisioni ideologiche, è tempo che tutti noi ci assumiamo la responsabilità di far scoppiare le nostre bolle di filtro.

Quando cerco qualcosa su Google, i risultati che vedo sono molto diversi dai tuoi, in base alle nostre cronologie di ricerca individuali e a qualsiasi altro dato che Google ha raccolto nel corso degli anni. Lo vediamo sempre sulle nostre timeline di Facebook, poiché il social network utilizza i suoi serbatoi di dati per offrirci ciò che pensa che vogliamo vedere e sentire. Questa è la tua bolla.

Numerose aziende si sono battute per le bolle per anni. Si ritiene che il fondatore e CEO di Facebook Mark Zuckerberg abbia detto una volta ai colleghi che "uno scoiattolo che muore nel tuo cortile potrebbe essere più rilevante per i tuoi interessi in questo momento rispetto alle persone che muoiono in Africa". L'intero Facebook è orientato ad assicurarti di sapere tutto quello che c'è da sapere su quello scoiattolo.

Sebbene controverso, è discutibile che Zuckerberg abbia almeno in parte ragione. Le persone non potrebbero funzionare nella loro vita quotidiana se passassero ogni secondo a preoccuparsi dei problemi del mondo. Ma curare le nostre notizie per darci ciò che vogliamo vedere, piuttosto che ciò che forse abbiamo bisogno di vedere, ha problemi reali a lungo termine.

I pericoli delle bolle di filtraggio

Le bolle di filtro potrebbero non sembrare troppo minacciose per un potenziale cliente, ma possono portare a due problemi distinti ma collegati. Il primo è che quando vedi solo le cose con cui sei d'accordo, può portare a un bias di conferma a valanga che si accumula costantemente nel tempo.

Non prendono apertamente una posizione, dipingono invisibilmente il panorama digitale con cose che probabilmente si allineano con il tuo punto di vista.

Un problema più ampio è che con tali fonti di informazione diverse tra le persone, può portare alla generazione di una vera disconnessione, poiché diventano incapaci di capire come qualcuno possa pensare diversamente da se stesso.

Uno sguardo a una qualsiasi delle emittenti televisive tradizionali di sinistra o destra durante la preparazione delle recenti elezioni non ti avrebbe lasciato dubbi su quale candidato avessero appoggiato. Lo stesso si può dire dei giornali e di altri media. In effetti, questo è vero per molti approvazioni pubblicate.

Ma siamo tutti consapevoli di questo pregiudizio. È facile semplicemente spegnere o passare a un'altra stazione, per vedere l'altro lato della medaglia.

In linea, il pregiudizio è più nascosto. Le ricerche su Google, i feed dei social network e persino alcune pubblicazioni di notizie curano tutti ciò che ti mostrano. Peggio ancora, è tutto dietro le quinte. Non prendono apertamente una posizione, dipingono invisibilmente il panorama digitale con cose che probabilmente si allineano con il tuo punto di vista.

Se il feed di Facebook di una persona è pieno di storie e post a favore di Hillary e anti-Trump, potresti chiederti come mai qualcuno potrebbe votare per l'uomo. Se il tuo feed è l'esatto opposto, evidenziando solo gli aspetti negativi di Hillary e sostenendo Trump e i suoi benefici, potresti avere l'opinione esattamente opposta.

Come il leone di Wittgenstein, se i nostri schemi di riferimento da notizie e feed social sono così diversi l'uno dall'altro, potremmo mai sperare di capire la posizione dell'altro?

Le notizie false, un problema storico, persistono ancora oggi

Questo diventa ancora più un problema quando prendi in considerazione le notizie false. Quest'ultima elezione è stata una delle più controverse della storia, con candidati a bassa approvazione da entrambe le parti e titoli salaci lanciati da ogni fonte immaginabile. Con così tanto fango gettato, era difficile tenere traccia di quello che stava succedendo, ed era doppiamente così online, dove le notizie false erano abbondanti.

Questo è qualcosa che il CEO di Facebook Mark Zuckerberg ha cercato di minimizzare, sostenendo che rappresentava solo l'1% delle notizie complessive di Facebook. Considerando che Facebook ha quasi 2 miliardi di utenti, tuttavia, sono potenzialmente molte storie false ripetute a pappagallo come verità. Si è dimostrato abbastanza un problema che gli studi suggeriscono che molte persone hanno difficoltà a distinguere notizie false da notizie reali e nelle settimane successive alle elezioni, sia Google che Facebook si sono impegnati ad affrontare il problema.

Considera inoltre che il 61% dei millennial utilizza Facebook come principale fonte di notizie e puoi vedere come questo problema potrebbe peggiorare se non verrà interrotto presto. Ma questa non è la prima volta che il giovane è stato ingannato dal giusto tipo di bugie.

fake news e filtro bolle platofake news e filtro bolle fakenews filterbubbles 08fake news e filter bubbles fakenews filterbubbles 07notizie false e bolle di filtro fakenews bolle di filtro 09

Notizie false, falsa conoscenza e falsa saggezza sono qualcosa con cui gli esseri umani hanno avuto difficoltà per sempre. La sofistica una volta era una pratica di insegnamento della retorica e del parlare in pubblico nell'antica Grecia, ma si pensa che sia stata cooptata dai ciarlatani che usavano il potere della retorica e della filosofia non solo per fare soldi dai loro studenti paganti, ma per rendere popolari argomenti ridicoli.

Platone descrisse una persona del genere in uno dei suoi dialoghi successivi e tentò di tracciare un confronto tra loro e il loro marchio di saggezza implicita, rispetto a un vero filosofo o statista. In esso, conclude che il sofisma è l'imitazione quasi indistinguibile di una vera arte, proprio come le fake news oggi imitano la forma d'arte dell'investigazione e del reportage giornalistico.

Anche il secondo presidente degli Stati Uniti, John Adams, ne conosceva i pericoli. In risposta a una lettera di un amico nel 1819 in cui si chiedeva la definizione di alcune parole come "libertà e" repubblica ", lodò la ricerca di tale chiarezza, sottolineando l'importanza di essere acutamente consapevoli del significato dietro parole e frasi.

"L'abuso delle parole è stato il grande strumento del sofisma e dell'inganno, del partito, della fazione e della divisione della società".

"L'abuso delle parole è stato il grande strumento dei sofismi e degli imbrogli, del partito, delle fazioni e della divisione della società", ha detto, prima di citare la propria stanchezza nel perseguire tale chiarimento.

Più o meno allo stesso modo in cui sofisti e truffatori del passato potevano usare le tecniche dei loro coetanei per fare soldi, aumentare la propria statura e in qualche modo sovvertire il funzionamento della società, i siti di notizie false e gli autori usano gli stili e le tecniche del giornalismo online per creare contenuti che sembrano plausibili. Se combinato con un titolo salace e la capacità di condividere facilmente quel contenuto online prima di verificarne l'autenticità, hai una ricetta per la proliferazione di storie fasulle che possono avere un reale impatto culturale.

Mentre Zuckerberg potrebbe non pensare che le fake news e i meme abbiano fatto la differenza per le elezioni, il dipendente di Facebook e fondatore di Oculus VR Palmer Luckey lo ha fatto. È stato denunciato all'inizio di quest'anno per aver investito più di $ 100.000 in un'azienda che ha contribuito a promuovere Donald Trump online attraverso la proliferazione di meme e pubblicità di attacchi infiammatori. Non si sarebbe impegnato se lo avesse ritenuto inutile.

Le storie guidano le emozioni

L'analisi di Buzzfeed delle popolari storie condivise su Facebook mostra che mentre le notizie false hanno sottoperformato rispetto alle loro controparti reali all'inizio del 2016, quando il giorno delle elezioni si è concluso all'inizio di novembre, avevano un vantaggio di 1,5 milioni su storie vere.

Lo stesso pezzo di analisi ha evidenziato alcune delle più grandi storie elettorali false e tutte contenevano tattiche classiche di click-baiting. Hanno usato parole scandalose, lettere maiuscole e affermazioni sensazionaliste per attirare clicker, condivisori e commentatori.

Questo perché questo tipo di parole aiuta a trarre una reazione emotiva da noi. La società di marketing Co-Schedule lo ha scoperto nel 2014, ma è probabile che molte persone sarebbero d'accordo anche senza i numeri difficili. Siamo stati tutti tentati dai titoli clickbait in passato, e di solito sono quelli che fanno appello alla paura, alla rabbia, all'eccitazione o ad altre parti di noi che non sono legate al pensiero critico e all'analisi politica. Ognuno getta fango dalle proprie bolle filtranti, sicuro di avere ragione e che chiunque la pensa diversamente è un idiota.

Scoppiando ciò che non puoi vedere

E qui sta la difficoltà. L'unico modo per capire davvero perché qualcuno può avere un punto di vista diverso è attraverso l'empatia. Ma come puoi entrare in empatia quando non hai il controllo su come il mondo ti appare e il tuo filtro funge da cuscinetto per le storie che potrebbero aiutarti a connetterti con l'altra parte?

Parlando con noi dal passato, Pariser ha alcuni pensieri per quelli di noi che ora vivono attraverso il suo avvertimento del futuro. Anche se Facebook potrebbe privare l'intera umanità della sua cura delle notizie, ci sono ancora menti umane e punte delle dita dietro gli algoritmi che ci alimentano i contenuti. Ha invitato quei programmatori a instillare un senso di integrità giornalistica nell'IA dietro le quinte.

facebookComp_head

“Abbiamo bisogno che i custodi [dell'informazione] codifichino la responsabilità [giornalistica] nel codice che stanno scrivendo. […] Dobbiamo assicurarci che questi algoritmi abbiano codificato in loro un senso della vita pubblica, un senso di responsabilità civica. Devono essere abbastanza trasparenti da poter vedere quali sono le regole e [...] dobbiamo [che ci sia] dato un certo controllo ".

Questo tipo di suggerimento sembra particolarmente pertinente, dal momento che è stato solo alla fine di agosto che Facebook ha licenziato l'intero team editoriale, affidandosi invece ad algoritmi automatizzati per curare i contenuti. Non hanno fatto un ottimo lavoro, tuttavia, poiché settimane dopo si è scoperto che avevano lasciato uno stuolo di contenuti falsi attraverso il processo di screening.

Anche se può sembrare un'impresa ardua per le megacorporazioni spingere per una piattaforma così aperta, è stato sollevato così tanto un putiferio sulle fake news sulla scia delle elezioni che sembra che Facebook e Google almeno stiano facendo qualcosa per indirizzare quell'aspetto problematico del social networking. Possono fare di più, tuttavia, e potrebbe iniziare aiutando ad aumentare la consapevolezza delle differenze nel contenuto che ci viene mostrato.

Certamente ci sono volte in cui non abbiamo bisogno di contenuti adatti a noi. Se stai cercando un argomento su cui scrivere, vuoi i dati grezzi, non la versione abbellita di Google. Quando si tratta di notizie, offrire un po 'di controllo manuale sulla cura non sarebbe male. o.

Che ne dici di un pulsante che ci consente di vedere l'esatto contrario di ciò che mostrano i nostri feed personalizzati basati sui dati? Certamente farei clic su quello di tanto in tanto.

Ma questo impone ad altre persone l'onere di apportare il cambiamento per noi, ed è importante ricordare che il motivo per cui questi servizi ci forniscono contenuti relativamente ristretti è a causa delle nostre ricerche e clic. Se tutti facessimo un punto di leggere al di fuori della nostra zona di comfort, di entrare con una mente chiara e di richiedere contenuti al di fuori della nostra bolla, lo otterremmo e gli algoritmi risponderebbero gradualmente.

Ciò ha il doppio vantaggio di darci un accesso immediato a nuove informazioni, ma insegna anche ai nostri curatori digitali ad essere un po 'più aperti.

E forse anche noi. Almeno quanto basta per ascoltare senza gridare e chiedere uno spazio sicuro per i nostri pensieri. Che tu creda che il punto di vista opposto sia fuorviante, sbagliato o disgustoso, il modo migliore per combatterlo è con un dibattito ragionevole. Nessuna idea terribile può sopravvivere alla dura luce del giorno e all'intelligente opposizione.

Per il suo punto di vista, Pariser continua a sottolineare i problemi che pongono le bolle del filtro, ma si è assunto la responsabilità di riunire le persone per aiutare a combattere le notizie false e altre sciocchezze online. Se desideri aiutarlo, puoi contribuire tu stesso.

Sembra sempre più chiaro, tuttavia, che per quanto ci siano molte grandi istituzioni che hanno bisogno di apportare modifiche per aiutare a lottare per la verità online, il miglior passo che possiamo fare è far scoppiare le nostre bolle per vedere cosa c'è oltre. Potrebbe rendere le cose un po 'più chiare in un momento in cui è sempre più difficile tenersi al corrente di ciò che è cosa.