Secondo quanto riferito, Taylor Swift ha minacciato di citare in giudizio Microsoft per il bot razzista di Twitter

Quando un chatbot artificialmente intelligente che utilizzava Twitter per imparare a parlare si è trasformato in un bot bigotto, Taylor Swift avrebbe minacciato un'azione legale perché il nome del bot era Tay. Microsoft probabilmente preferirebbe dimenticare l'esperimento in cui i troll di Twitter hanno approfittato della programmazione del chatbot e gli hanno insegnato a essere razzista nel 2016, ma un nuovo libro condivide dettagli inediti che mostrano che Microsoft aveva più di cui preoccuparsi oltre alle osservazioni razziste del bot.

Tay era un chatbot di social media orientato agli adolescenti lanciato per la prima volta in Cina prima di adattare il moniker di tre lettere quando si trasferiva negli Stati Uniti.Il bot, tuttavia, era programmato per imparare a parlare in base alle conversazioni di Twitter. In meno di un giorno, le risposte automatiche che il chatbot ha twittato hanno portato Tay dalla parte di Hitler, promuovendo il genocidio e, in generale, odiando tutti. Microsoft ha immediatamente rimosso l'account e si è scusato.

Quando il bot è stato riprogrammato, Tay è stato rilanciato come Zo. Ma nel libro Tools and Weapons del presidente di Microsoft Brad Smith e Carol Ann Browne, direttrice delle comunicazioni di Microsoft, i dirigenti hanno finalmente rivelato il perché: un altro Tay, Taylor Swift.

Secondo The Guardian, l'avvocato del cantante ha minacciato un'azione legale per il nome del chatbot prima che il bot si rompesse. Il cantante ha affermato che il nome violava le leggi federali e statali. Piuttosto che entrare in una battaglia legale con il cantante, scrive Smith, la compagnia ha invece iniziato a considerare nuovi nomi.

Quando il chatbot ha iniziato a inviare tweet razzisti, il cantante aveva ancora più motivi di preoccupazione. Microsoft ha rimosso il bot. Ma quando il chatbot è ricomparso, Tay non era più TayTweets ma Zo, completo di un nuovo programma che impedisce al bot di affrontare la politica, la razza e la religione come argomenti. Il chatbot rivisto, disponibile su Messenger e altri insieme a Twitter, è stato successivamente criticato per essere troppo simile a una ragazza adolescente stereotipata.

Il soprannome abbreviato non è l'unica cosa che la cantante ha rivendicato: ha anche registrato il 1989, l'anno in cui è nata e il titolo di una delle sue canzoni. La cantante ha anche registrato diverse righe dai suoi testi.

Il libro, pubblicato il 10 settembre, continua a discutere di come Smith abbia visto l'incidente come una lezione sulle misure di sicurezza dell'IA.