Come l'IA può raccogliere indizi per prevenire future sparatorie nelle scuole

Alla luce delle recenti sparatorie mortali nelle scuole negli Stati Uniti, educatori, genitori ed esperti di sicurezza stanno cercando la tecnologia per aiutare a risolvere il problema. In prima linea è l'uso dell'intelligenza artificiale.

"Il nostro obiettivo è assicurarci che un bambino non voglia mai portare una pistola a scuola", ha detto Suzy Loughlin, cofondatrice e capo consiglio di Firestorm, una società di gestione delle crisi. A tal fine, in collaborazione con la University of Alabama School of Continuing Education, l'azienda ha sviluppato un programma di prevenzione che cerca segnali di allarme precoce nei bambini che potrebbero essere a rischio di commettere futuri atti violenti.

Soprannominato BERTHA, per Behavioral Risk Threat Assessment Program, l'idea è nata dalla sparatoria di massa del 2007 alla Virginia Tech quando 32 persone furono uccise, una delle più letali nella storia degli Stati Uniti. La sparatoria di febbraio alla Marjory Stoneman Douglas High School di Parkland, in Florida, che ha ucciso 17 persone, ha portato maggiore attenzione sulla questione, sottolineata ancora a maggio, dalla sparatoria della Santa Fe High School in Texas dove sono stati uccisi 10 studenti e insegnanti.

Vittime di sparatorie a scuola dal 1989 , fonte: Mother Jones

IncidenteVittimeFeritoVittime totaliAnno
Riprese al liceo di Santa Fe (Santa Fe, TX)1013232018
Marjory Stoneman Douglas High School shooting (Parkland, Florida)1714312018
Tiro all'Umpqua Community College (Roseburg, Oregon)99182015
Marysville-Pilchuck High School shooting (Marysville, Washington)5162014
Omicidio di massa di Isla Vista (Santa Barbara, California)613192014
Massacro elementare di Sandy Hook (Newtown, Connecticut)272292012
Oikos University killings (Oakland, California)73102012
Tiro alla Northern Illinois University (DeKalb, Illinois)521262008
Massacro della Virginia Tech (Blacksburg, Virginia)3223552007
Scuola di tiro Amish (Contea di Lancaster, Pennsylvania)65112006
Massacro del Lago Rosso (Lago Rosso, Minnesota)105152005
Massacro della Columbine High School (Littleton, Colorado)1324371999
Thurston High School di tiro (Springfield, Oregon)425291998
Uccisioni nella Westside Middle School (Jonesboro, Arkansas)510151998
Lindhurst High School shooting (Olivehurst, California)410141992
Tiro all'università dell'Iowa (Iowa City, Iowa)6171991
Stockton shooting schoolyard (Stockton, California)629351989

Il programma di valutazione del rischio è concepito come una rete di sicurezza per catturare i bambini che potrebbero aver bisogno di aiuto e intervento prima che diventino suicidi o violenti. Come dimostrato dopo ogni incidente precedente, gli amministratori, i genitori e gli studenti si chiedono perché i primi segnali di allarme - come il cyberbullismo, allusioni alle armi e riferimenti alla sparatoria alla Columbine High School in Colorado, nel 1999 - non siano stati notati prima.

Usare l'IA per cercare indizi

La sfida è stata la difficoltà di setacciare le montagne di dati generati nei forum e negli account dei social media per trovare i pochi aghi che potrebbero avvisare un consulente scolastico o uno psicologo che un bambino è nei guai. Quindi, per filtrare tali indizi online, gli amministratori stanno arruolando strumenti di intelligenza artificiale.

"Il nostro obiettivo è assicurarci che un bambino non voglia mai portare una pistola a scuola."

"Siamo la componente AI", ha spiegato Mina Lux, fondatrice e CEO di Meelo Logic con sede a New York. La sua azienda sta lavorando al programma BERTHA con Firestorm per eseguire il pesante lavoro iniziale di smistamento attraverso quelli che sono diventati noti come big data. "Il nostro obiettivo è l'automazione della conoscenza per comprendere il contesto."

Il software di Meelo è in grado di risalire alla fonte originale di commenti e post. L'azienda si riferisce al processo come ragionamento causale, ma è più analogo a trovare il paziente zero, l'individuo originale per il quale qualcun altro potrebbe aver espresso preoccupazione.

"Di solito, c'è uno sfogo iniziale online, e lo stanno rendendo di proposito pubblico - potrebbe essere una richiesta di aiuto", ha spiegato Hart Brown, il COO di Firestorm. "E nell'80% dei casi, almeno un'altra persona lo sa, quindi anche se il primo post è privato, è probabile che qualcun altro lo renda pubblico."

come l'intelligenza artificiale può raccogliere indizi per prevenire future sparatorie nelle scuole proteste contro le sparatorie 1come l'intelligenza artificiale può raccogliere indizi per prevenire future sparatorie nelle scuole, proteste contro le sparatorie 3come l'intelligenza artificiale può raccogliere indizi per prevenire future sparatorie scolastiche proteste scolastiche 2come l'intelligenza artificiale può raccogliere indizi per prevenire future sparatorie nelle scuole proteste contro le sparatorie 4

Il programma AI fornisce lo screening iniziale, basato sui termini gergali utilizzati, contesto, posizione e collegamenti correlati. Quindi, la dashboard BERTHA di Firestorm segnala l'attività per un possibile intervento. È qui che le persone - consulenti, insegnanti, psicologi - intervengono per valutare se esiste una minaccia reale, se un bambino ha bisogno di un'attenzione extra perché mostra rabbia o tendenze suicide, o se l'attività è benigna.

La sfida è stata la difficoltà di setacciare le montagne di dati generati nei forum e nei social media.

"Ma nessuno è responsabile di prendere la decisione", ha detto Brenda Truelove, un amministratore del programma presso l'Università dell'Alabama che ha lavorato con Firestorm sul programma e un programma di e-learning associato per educatori a livello nazionale. "Una persona potrebbe perdere qualcosa, quindi è un team di persone che decide cosa fare."

Truelove ha osservato che il programma si basa sull'esperienza di insegnanti, psicologi forensi e altri esperti per creare una formula per affrontare potenziali crisi.

Una maggiore sicurezza significa meno privacy?

Sebbene il potenziale dell'IA nel prevenire future sparatorie nelle scuole possa essere promettente, tale tracciamento e analisi dei dati sollevano inevitabili preoccupazioni sulla privacy e l'accuratezza e se la sicurezza prevale su qualsiasi preoccupazione.

Bryce Albert, uno studente della nona elementare alla Marjory Stoneman Douglas High School, era nel corridoio del terzo piano quando il tiratore ha iniziato a sparare agli studenti. Quando Albert ha visto l'assassino scendere nel corridoio, un insegnante ha fatto entrare Albert in una classe e lui è sopravvissuto. Dopo quell'esperienza, ha cambiato idea sulla privacy.

Tempesta di fuoco

"Prima, ero tipo, non entrare nelle mie cose", ha detto Albert a Digital Trends, parlando delle autorità che monitorano il suo utilizzo dei social media. "Ma ora ho cambiato completamente idea."

Lux di Meelo ha sottolineato che i programmi AI non accedono ad alcun account privato; tutte le informazioni sono pubbliche. Loughlin di Firestorm ha sottolineato il fatto che non raccolgono o archiviano i dati da soli. È gestito dalle singole scuole, che hanno già esperienza nella tenuta dei registri degli studenti. (Firestorm addebita una tariffa di licenza di $ 2.500 per scuola, mentre l'Università dell'Alabama offre un corso di formazione online gratuito per educatori K-12 dell'Alabama. Le scuole possono anche lavorare sui propri progetti di allerta precoce gratuitamente utilizzando la formula di base in nove fasi di Firestorm per stabilire tali programmi.)

Lux riconosce che le sottigliezze del linguaggio, come il sarcasmo, possono rivelarsi impegnative per qualsiasi ricerca sull'IA. Meelo si concentra sull'analisi testuale, piuttosto che sul tipo di analisi delle immagini che altre società di intelligenza artificiale, come Cortica, studiano. Tuttavia, c'è spazio per interpretazioni errate anche per i partecipanti umani.

"È difficile provare emozioni tramite messaggi di testo", ha riconosciuto Albert.

D'altra parte, un programma spassionato non gioca i preferiti o ignora i tipi di cambiamenti emotivi o comportamentali che potrebbero indicare che i problemi sono in arrivo.

L'intelligenza artificiale è ancora solo un filtro o uno strumento iniziale per fermare le future sparatorie nelle scuole.

"In definitiva, può essere più preciso eliminando quanto più bias possibile", ha detto Brown di Firestorm. Una persona o un consulente delle risorse umane potrebbe ridurre al minimo gli scoppi emotivi di una persona, ad esempio, dicendo che accade tutto il tempo. Il computer impassibile non trova scuse del genere.

"Ma richiede ancora un tocco umano per seguire, per intervistare quella persona", ha detto Brown. "Il computer non determinerà se quella persona deve essere espulsa o ha bisogno di assistenza."

L'intelligenza artificiale è uno strumento, non una soluzione

Tutti gli esperti con cui Digital Trends ha parlato per questa storia hanno sottolineato il fatto che l'IA è ancora solo un filtro o uno strumento iniziale per fermare le future sparatorie nelle scuole. Può generare avvisi sui bambini a rischio, ma non può dire agli educatori come, quando o anche se dovrebbero intervenire. Le scuole hanno ancora bisogno del proprio team di esperti - dagli insegnanti che conoscono gli studenti agli psicologi - e probabilmente continueranno ad averne bisogno.

"Le statistiche mostrano che con ogni sparatoria scolastica che accade, c'è una maggiore probabilità che avvenga un'altra sparatoria scolastica", ha detto Lux.

In definitiva, l'elemento umano è il fattore più importante. "Parla con le persone e chiedi aiuto", ha detto Albert. "Non aver paura di chiedere aiuto."