Come insegniamo ai robot il bene dal male?

l'algoritmo individua i falsi sui robot dei social media l'etica giusta sbagliataNota del redattore: Digital Trends ha collaborato con WebVisions, la conferenza sul design, la tecnologia e l'esperienza utente riconosciuta a livello internazionale, per contribuire a portare il luminare Douglas Rushkoff all'evento di quest'anno a Portland, Oregon. Come parte della nostra partnership, siamo anche lieti di presentare contenuti selezionati dal blog perspicace di WebVisions, Word. Questa settimana, il collaboratore Mark Wyner si chiede come possiamo insegnare l'intelligenza artificiale dal bene al male. Godere!

Twitter ha ammesso che ben 23 milioni (8,5%) dei suoi account utente sono Twitterbot autonomi. Molti sono lì per aumentare la produttività, condurre ricerche o persino divertirsi. Eppure molti sono stati creati con intenzioni dannose. In entrambi i casi, è noto che i robot si comportano con un'etica discutibile, forse perché sono semplicemente piccoli esemplari di intelligenza artificiale (AI).

Gli esseri umani stanno attualmente costruendo macchine molto più sofisticate che affronteranno questioni di etica su scala monumentale. Anche nella mortalità degli esseri umani. Quindi come possiamo assicurarci che facciano le scelte giuste quando sarà il momento?

Costruiscilo o insegnalo

Il fattore chiave per costruire con successo macchine autonome che coincidono in simbiosi con gli esseri umani è l'etica. E ci sono fondamentalmente due modi per programmare l'etica nelle macchine:

Innanzitutto, puoi codificarli come hardcoded nei loro sistemi operativi. La preoccupazione qui è che l'etica è soggettiva. L'etica nella macchina dipende dall'etica nel suo creatore. Ma noi umani non sempre ci allineamo nella nostra moralità. Combattiamo guerre per differenze etiche. Quindi, mentre costruiamo macchine autonome per essere etiche, stiamo costruendo entro i confini delle nostre disparità esistenti.

robot-giusto-sbagliato-etica-2

In secondo luogo, è possibile fornire alcune linee guida, quindi consentire alla macchina di apprendere la propria etica in base alle proprie esperienze. Questo approccio passivo lascia ampio spazio a interpretazioni errate della moralità, a seconda dei comportamenti osservati. Considera il recente crollo dell'intelligenza artificiale di Twitter di Microsoft, Tay, che è stato indotto a twittare insulti razzisti e promuovere il genocidio sulla base di una falsa inferenza di accettata normalità etica.

Un team della Georgia Tech sta lavorando a quest'ultimo, insegnando ai sistemi cognitivi a imparare come comportarsi in modi socialmente accettabili leggendo storie. Un sistema di ricompensa chiamato Chisciotte dovrebbe aiutare i sistemi cognitivi a identificare i protagonisti nelle storie, che le macchine usano per allineare i propri valori con quelli degli esseri umani. Non è chiaro quali metodi Microsoft abbia utilizzato con Tay. Ma se le loro tecniche fossero preventive, come con il sistema di apprendimento della Georgia Tech, siamo molto lontani dal consolidare l'etica nell'intelligenza artificiale.

Paralisi etica

Ora, tutto questo si basa sull'idea che un computer possa persino comprendere l'etica. Come mostra Alan Winfield nel suo studio Towards an Ethical Robot , quando un computer incontra un paradosso etico, il risultato è imprevedibile, spesso paralizzante. Nel suo studio, a un robot cognitivo (A-robot) è stato chiesto di salvare un robot "umano" (H-robot) dal pericolo. Quando l'A-robot poteva salvare solo uno dei due H-robot, esitava e ammetteva nella sua stessa confusione, senza salvare nessuno dei due.

C'è un antico dibattito filosofico sul fatto che l'etica sia una questione di ragione o di emozione. Tra gli psicologi moderni, c'è un consenso sul fatto che il processo decisionale etico richiede giudizi sia razionali che emotivi. Come osserva il professor Paul Thagard in un articolo su questo argomento, “i giudizi etici sono spesso altamente emotivi, quando le persone esprimono la loro forte approvazione o disapprovazione per vari atti. Se sono anche razionali dipende dal fatto che la valutazione cognitiva che fa parte dell'emozione sia fatta bene o male. "

Decisioni con conseguenze

Quindi, se le macchine cognitive non hanno la capacità di etica, chi è responsabile quando infrangono la legge? Nessuno sembra saperlo. Ryan Calo della School of Law dell'Università di Washington osserva: “la robotica combina, per la prima volta, la promiscuità dei dati con la capacità di provocare danni fisici; i sistemi robotici svolgono compiti in modi che non possono essere anticipati in anticipo; e i robot offuscano sempre più il confine tra persona e strumento ".

Il processo legislativo è estremamente lento, mentre la tecnologia, d'altro canto, accelera in modo esponenziale.

Anche i crimini possono essere piuttosto gravi. Lo sviluppatore olandese Jeffry van der Goot ha dovuto difendere se stesso - e il suo Twitterbot - quando la polizia ha bussato alla sua porta, informandosi su una minaccia di morte inviata dal suo account Twitter. Poi c'è Random Darknet Shopper; un bot per lo shopping con un'indennità settimanale di $ 100 in Bitcoin per fare acquisti su Darknet per una mostra d'arte. I funzionari svedesi non si sono divertiti quando ha acquistato ecstasy, che l'artista ha messo in mostra. ( Anche se, a sostegno dell'espressione artistica, non hanno confiscato le droghe fino alla fine della mostra. )

In entrambi i casi, le autorità hanno fatto ciò che potevano nel rispetto della legge, ma alla fine hanno perdonato i proprietari umani perché non avevano commesso crimini esplicitamente o direttamente. Ma come si traduce quando un essere umano scatena un'intelligenza artificiale con l'intenzione di malizia?

La realtà ironica è che stiamo esplorando modi in cui possiamo governare le nostre macchine autonome. E al di là della nostra discutibile capacità di instillare in loro l'etica, siamo spesso confusi solo dal loro comportamento generale. Discutendo i metodi alla base delle loro reti neurali, l'ingegnere del software di Google Alexander Mordvintsev ha rivelato: "... anche se questi sono strumenti molto utili basati su metodi matematici ben noti, in realtà capiamo sorprendentemente poco del perché alcuni modelli funzionano e altri no".

Possiamo tenere il passo?

Tutto sommato, il processo legislativo è estremamente lento, mentre la tecnologia, d'altro canto, ha una fretta esponenziale. Come spiega Vivek Wadhwa della Singularity University, “le leggi non possono tenere il passo perché… le leggi sono essenzialmente un'etica codificata. Che sviluppiamo un consenso come società su ciò che è buono e ciò che è male e poi diventa ciò che è giusto e ciò che è sbagliato, e poi diventa ciò che è legale e ciò che è illegale. È così che procede la progressione. Sulla maggior parte di queste tecnologie non abbiamo deciso cosa sia buono o cattivo ".

Se la legge si mette in pari, potremmo scrivere il nostro destino. Tutti questi discorsi sui robot che conquistano il mondo? Forse si limitano a camminare in massa fino a quando non imprigioniamo così tanto della nostra razza da diventare la minoranza degli esseri autonomi. Scacco matto.