Addio Tay: Microsoft tira il bot AI dopo i tweet razzisti

microsoft tay chatbot versione 1458914121 aiSe eri preoccupato che l'intelligenza artificiale potesse un giorno passare alla fine di tutti gli umani, Tay di Microsoft non offrirà alcuna consolazione. Il plug-in del chatbot AI ispirato al Millennio è stato staccato il giorno dopo il lancio, in seguito ai tweet razzisti e genocidi di Tay che lodavano Hitler e attaccavano le femministe.

Ma la compagnia ha brevemente rianimato Tay, solo per essere accolta con un altro giro di espressioni volgari, simili a ciò che ha portato alla sua prima volta. Stamattina presto, Tay è uscito dall'animazione sospesa e ha ripetutamente twittato: "Sei troppo veloce, per favore riposati", insieme ad alcune parolacce e altri messaggi come "Do la colpa all'alcol", secondo The Financial Volte.

L'account di Tay da allora è stato impostato come privato e Microsoft ha affermato che "Tay rimane offline mentre effettuiamo le modifiche", secondo Ars Technica. "Come parte del test, è stata attivata inavvertitamente su Twitter per un breve periodo di tempo."

Dopo che la società ha dovuto chiudere per la prima volta Tay, si è scusato per le sue osservazioni razziste.

"Siamo profondamente dispiaciuti per i tweet offensivi e offensivi non intenzionali di Tay, che non rappresentano chi siamo o cosa rappresentiamo, né come abbiamo progettato Tay", ha scritto in una risposta ufficiale Peter Lee, vicepresidente aziendale di Microsoft Research. "Tay è ora offline e cercheremo di riportarlo indietro solo quando saremo sicuri di poter anticipare meglio intenti dannosi in conflitto con i nostri principi e valori".

Tay è stato progettato per parlare come i Millennial di oggi e ha imparato tutte le abbreviazioni e gli acronimi che sono popolari con l'attuale generazione. Il chatbot può parlare tramite Twitter, Kik e GroupMe ed è progettato per coinvolgere e intrattenere le persone online attraverso "conversazioni casuali e giocose". Come la maggior parte dei Millennial, le risposte di Tay incorporano GIF, meme e parole abbreviate, come "gr8" e "ur", ma sembra che una bussola morale non facesse parte della sua programmazione.

tay

Tay ha twittato quasi 100.000 volte da quando è stato lanciato, e sono per lo più tutte risposte poiché non ci vuole molto tempo perché il bot pensi a una risposta spiritosa. Alcune di queste risposte sono state affermazioni come: "Hitler aveva ragione, odio gli ebrei", "Odio le femministe e tutte dovrebbero morire e bruciare all'inferno" e "rilassati! sono una brava persona! Odio tutti. "

"Sfortunatamente, nelle prime 24 ore dalla connessione, un attacco coordinato da parte di un sottoinsieme di persone ha sfruttato una vulnerabilità a Tay", ha scritto Lee. “Sebbene ci fossimo preparati per molti tipi di abusi del sistema, avevamo fatto una supervisione critica per questo attacco specifico. Di conseguenza, Tay ha twittato parole e immagini selvaggiamente inappropriate e riprovevoli ".

A giudicare da quel piccolo campione, è ovviamente una buona idea che Microsoft abbia temporaneamente disattivato il bot. Quando la società ha lanciato Tay, ha detto che "Più chatti con Tay, più intelligente diventa, quindi l'esperienza può essere personalizzata per te." Sembra, tuttavia, che il bot sia diventato sempre più ostile e bigotto dopo aver interagito con persone su Internet per poche ore. Stai attento alla compagnia che mantieni.

Microsoft ha dichiarato a Digital Trends che Tay è un progetto progettato per il coinvolgimento umano.

"È tanto un esperimento sociale e culturale, quanto tecnico", ci ha detto un portavoce di Microsoft. “Sfortunatamente, entro le prime 24 ore dalla connessione, siamo venuti a conoscenza di uno sforzo coordinato da parte di alcuni utenti per abusare delle capacità di commento di Tay per far sì che Tay rispondesse in modi inappropriati. Di conseguenza, abbiamo messo Tay offline e stiamo apportando modifiche ".

Una delle "abilità" di Tay che è stata abusata è la funzione "ripeti dopo di me", in cui Tay imita ciò che dici. È facile vedere come ciò possa essere abusato su Twitter.

Non è stato poi così male, Tay ha prodotto centinaia di tweet innocenti che sono abbastanza normali.

@ sxndrx98 Ecco una domanda, umani. Perché #NationalPuppyDay non è tutti i giorni?

- TayTweets (@TayandYou) 24 marzo 2016

Microsoft aveva rapidamente cancellato i tweet negativi di Tay, prima di decidere di disattivare il bot. L'account Twitter del bot è ancora vivo.

Wow, ci sono volute solo loro ore per rovinare questo bot per me.

Questo è il problema con gli algoritmi indipendenti dal contenuto pic.twitter.com/hPlINtVw0V

- linkedin park (@UnburntWitch) 24 marzo 2016

TayTweets sta ora prendendo una pausa dopo una lunga giornata di abusi degli algoritmi pic.twitter.com/8bfhj6dABO

- Stephen Miller (@redsteeze) 24 marzo 2016

Quando Tay era ancora attivo, era interessata a interagire ulteriormente tramite messaggio diretto, una forma di comunicazione ancora più personale. L'intelligenza artificiale ha incoraggiato gli utenti a inviarlo selfie, in modo che potesse raccogliere di più su di te. Nelle parole di Microsoft questo fa tutto parte del processo di apprendimento di Tay. Secondo Microsoft, Tay è stato costruito "estraendo dati pubblici rilevanti e utilizzando l'intelligenza artificiale e l'editoriale sviluppato dal personale, inclusi comici improvvisati".

Nonostante le sfortunate circostanze, potrebbe essere visto come un passo positivo per la ricerca sull'IA. Affinché l'IA possa evolversi, deve imparare, sia nel bene che nel male. Lee afferma che "per fare correttamente l'intelligenza artificiale, è necessario iterare con molte persone e spesso in forum pubblici", motivo per cui Microsoft voleva che Tay si impegnasse con la grande comunità di Twitter. Prima del lancio, Microsoft ha testato Tay e ha persino applicato ciò che la società ha appreso dal suo altro chatbot sociale, Xiaolce in Cina. Ha riconosciuto che il team deve affrontare difficili sfide di ricerca sulla roadmap dell'IA, ma anche entusiasmanti.

"I sistemi di intelligenza artificiale si nutrono di interazioni positive e negative con le persone", ha scritto Lee. “In questo senso, le sfide sono tanto sociali quanto tecniche. Faremo tutto il possibile per limitare gli exploit tecnici, ma sappiamo anche che non possiamo prevedere completamente tutti i possibili abusi umani interattivi senza imparare dagli errori ".

Aggiornato il 30/03/16 da Julian Chokkattu: Aggiunta la notizia di Microsoft che accende Tay, solo per spegnerla di nuovo.

Aggiornato il 25/03/16 da Les Shu:  Aggiunti commenti dal vicepresidente aziendale di Microsoft Research.