Instagram espande il divieto di contenuti relativi ad autolesionismo e suicidio

Instagram ha dichiarato domenica 27 ottobre che sta vietando rappresentazioni fittizie di autolesionismo o suicidio dalla sua piattaforma, inclusi disegni o meme e contenuti di film o fumetti che utilizzano immagini grafiche. Rimuoverà anche qualsiasi post che includa materiale associato, indipendentemente dal fatto che mostri direttamente immagini di autolesionismo o suicidio.

La mossa segue la decisione dell'azienda nel febbraio 2019 di vietare il caricamento di foto grafiche di autolesionismo sulla sua piattaforma.

Instagram è stata sottoposta a crescenti pressioni per affrontare tali immagini a seguito di un caso di alto profilo nel Regno Unito che coinvolge la quattordicenne Molly Russell che si è suicidata nel 2017 dopo aver visualizzato materiale grafico sul sito. Suo padre, Ian Russell, crede che la piattaforma sia almeno in parte responsabile della sua morte.

In un messaggio pubblicato domenica, il capo di Instagram Adam Mosseri ha descritto il suicidio e l'autolesionismo come "argomenti difficili e complessi", ma ha aggiunto che "ci sono molte opinioni su come affrontarli al meglio".

Mosseri ha proseguito: “La tragica realtà è che alcuni giovani sono influenzati in modo negativo da ciò che vedono online e di conseguenza potrebbero farsi del male. Questo è un rischio reale. Ma allo stesso tempo, ci sono molti giovani che vengono online per ottenere supporto con le difficoltà che stanno affrontando, come quelli che condividono cicatrici guarite o parlano della loro guarigione da un disturbo alimentare. Spesso queste reti di supporto online sono l'unico modo per trovare altre persone che hanno condiviso le loro esperienze ".

Ha detto che dopo aver chiesto consiglio agli accademici e alle organizzazioni per la salute mentale, Instagram stava cercando di trovare "il difficile equilibrio tra consentire alle persone di condividere le proprie esperienze di salute mentale e allo stesso tempo proteggere gli altri dall'essere esposti a contenuti potenzialmente dannosi".

Mosseri ha riconosciuto che c'è ancora molto lavoro da fare nell'area, ma ha osservato che nei tre mesi successivi alla sua modifica iniziale della politica nel febbraio 2019, Instagram ha rimosso, ridotto la visibilità o aggiunto "schermi di sensibilità" che sfocano le immagini a più di 834.000 contenuti ed è stato in grado di individuare più del 77% di tali contenuti prima che venissero segnalati dagli utenti.

Parlando alla BBC, Ian Russell, che ha fatto una campagna per Instagram per essere più robusto nel modo in cui gestisce i contenuti sensibili, ha descritto l'ultima mossa della piattaforma per vietare rappresentazioni fittizie di autolesionismo e suicidio come uno sforzo "sincero", ma voluto per essere sicuri che l'azienda mantenga le sue promesse mentre continua ad affrontare la questione.

Facebook, che possiede Instagram e ha intrapreso un'azione simile per affrontare l'autolesionismo e le immagini relative al suicidio, ha recentemente utilizzato la Giornata mondiale della salute mentale per lanciare nuovi filtri e adesivi di Messenger volti a incoraggiare le conversazioni e il supporto per chi ha bisogno di aiuto.