Come rendere etici i robot insegnando loro a dire di no

insegnare ai robot ai come dire niente ciuffi di matthias scheutz Matthias Scheutz Kelvin Ma / Tufts University Che si tratti del tuo smartphone che tiene traccia dei tuoi ristoranti da asporto preferiti, o del tuo browser Web che tiene sotto controllo i siti web che visiti più spesso, probabilmente c'è un pezzo di tecnologia nella tua casa che sta imparando qualcosa su di te.

Man mano che i computer si trasformano da strumenti ad assistenti negli anni a venire, le esigenze di apprendimento della tecnologia che utilizziamo quotidianamente cresceranno in modo esponenziale. Questi servizi saranno più sofisticati e raggiungeranno molto più in là di oggi, ma dovranno diventare molto più intelligenti prima di farlo.

I sistemi informatici, l'intelligenza artificiale e i robot ausiliari dovranno colpire i libri su tutta una serie di argomenti: conversazione umana, norme culturali, etichetta sociale e altro ancora. Gli scienziati di oggi stanno insegnando all'IA le lezioni di cui avranno bisogno per aiutare gli utenti di domani e il programma del corso non è quello che ti aspetteresti.

I primi passi verso un'IA più intelligente

L'anno scorso, all'interno dei confini del laboratorio di interazione uomo-robot della Tufts University di Boston, un piccolo robot si è avvicinato al bordo di un tavolo. Dopo aver raggiunto questo precipizio, il robot ha notato che la superficie su cui stava camminando era terminata e ha detto al suo operatore: "Mi dispiace, non posso farlo".

In tal modo, la macchina ha confermato che il lavoro svolto da Matthias Scheutz e Gordon Briggs era stato un successo. La coppia aveva deciso di dare al loro robot la capacità di rifiutare una richiesta presentata da un operatore umano, con l'atto di autoconservazione da tavolo del soggetto del test che era una dimostrazione del sistema al lavoro.

Il progetto di Scheutz e Briggs fa parte di un ramo cruciale della ricerca sull'intelligenza artificiale. L'interazione uomo-robot, a volte indicata come HRI, è un elemento essenziale del nostro lavoro continuo verso l'applicazione pratica dell'IA. È facile dimenticare, con i robot ancora in gran parte una preoccupazione ipotetica per la maggior parte delle persone, che un giorno queste macchine dovranno integrarsi con gli umani che intendono assistere.

Insegnare a un robot a camminare è una cosa. Insegnare a quello stesso robot quando è sicuro attraversare una strada è molto diverso. Questo è il fulcro del progetto portato avanti da Scheutz e Briggs. Volevano dare a un robot la capacità di rifiutare gli ordini che gli vengono dati, se sembra che l'esecuzione del compito gli causerebbe danni.

A un essere umano, questo potrebbe sembrare un elemento implicito dell'azione di muoversi. Ma i robot non hanno il "buon senso".

Importanza della parola "no"

Insegnare a un robot a rifiutare un ordine che lo fa precipitare verso il suo destino è di ovvio vantaggio per il robot e anche per chi lo possiede. Ma la sua importanza va molto più in profondità. Aiutare un robot a dire "no" significa aiutarlo a imparare a giudicare le implicazioni delle sue azioni.

"Allo stesso modo in cui non vogliamo che gli esseri umani seguano ciecamente le istruzioni di altri umani, non vogliamo che robot istruibili eseguano ordini umani senza verificare quali sono gli effetti", ha detto Scheutz a Digital Trends.

Dobbiamo insegnare ai robot a disobbedire a comandi che non sono eticamente validi.

“Le istruzioni possono essere inappropriate in una data situazione per molte ragioni”, ha continuato, “ma soprattutto perché potrebbero causare danni alle persone o alle proprietà, incluso il robot stesso. Ragionando sui possibili risultati di un'azione istruita, il robot potrebbe essere in grado di rilevare potenziali violazioni delle norme e potenziali danni derivanti dall'azione e potrebbe tentare di mitigarli. "

In sostanza, quando il robot riceve la sua istruzione di andare avanti, controlla quella richiesta con le informazioni che ha a portata di mano. Se qualcosa sembra sospetto, il robot può quindi sollevare le sue preoccupazioni all'operatore umano, rifiutando alla fine il comando a titolo definitivo se l'istruttore non ha dati extra per calmare le sue paure.

Il processo scientifico non costituisce un titolo così accattivante come la minaccia di una rivolta robotica per noi umani. Giornali scandalistici come il Daily Mail hanno riportato il lavoro di Scheutz con un titolo da cartone animato speculando sull'imminente sottomissione della nostra specie per mano dei padroni dei robot. Anche noi di DT siamo noti per scherzare sull'apocalisse robotica. Di solito è molto divertente, ma in casi come questo può danneggiare la capacità dei ricercatori di diffondere il loro messaggio.

"Ci saranno sempre risposte che estrapoleranno la ricerca dal contesto e si concentreranno su ciò che sembra scomodo per noi, come l'idea che i robot disobbediscano ai nostri comandi", ha detto Scheutz in risposta al rapporto del Daily Mail. “Tuttavia, l'aspetto chiave della nostra ricerca che i titoli così accattivanti ignorano è insegnare ai robot a rifiutare i comandi che non sono eticamente validi  - e solo quelli. Non essere disobbedienti in generale. "

E se, ad esempio, un bambino dicesse a un robot domestico di versare caffè caldo sul fratellino come scherzo? Garantire che ciò non possa avvenire è vitale per il successo di qualsiasi azienda che produce tale tecnologia per il mercato consumer, ed è possibile solo se il robot dispone di un ampio database di norme sociali ed etiche a cui fare riferimento oltre alla sua capacità di dire “no. "

Aggiunta di livelli di complessità

Gli esseri umani sanno di smettere di camminare quando si avvicinano a un dislivello ripido o perché è inappropriato bagnare un bambino con caffè caldo. Le nostre esperienze ci hanno detto cosa è pericoloso e cosa significa. Sia che abbiamo fatto o ci è stato detto qualcosa in passato, possiamo attingere alle informazioni che abbiamo memorizzato per informare il nostro comportamento in una nuova situazione.

I robot possono risolvere i problemi in base allo stesso principio. Ma dobbiamo ancora produrre un computer in grado di apprendere come un essere umano, e anche allora l'apprendimento dell'etica è un processo che richiede anni. I robot devono avere a disposizione una vita intera di informazioni prima di essere liberati nel mondo.

La portata di questo lavoro è sbalorditiva, ben oltre ciò che molti potrebbero aspettarsi. Oltre a insegnare al robot come svolgere qualsiasi compito venga inviato, c'è un ulteriore livello di complessità offerto dalle molte complessità dell'interazione uomo-robot.

Andrew Moore è il preside della School of Computer Sciences della Carnegie Mellon University. In quel ruolo fornisce supporto a un gruppo di 2.000 studenti e membri della facoltà, molti dei quali lavorano in campi legati alla robotica, all'apprendimento automatico e all'intelligenza artificiale.

"Siamo responsabili di aiutare a capire come sarà l'anno 2040 in cui vivere", mi ha detto. "Quindi siamo anche responsabili di assicurarci che il 2040 sia un anno molto buono in cui vivere". Dato che è probabile che i robot ausiliari giocheranno un ruolo in quella visione del futuro, Moore ha molta esperienza nella relazione tra macchina e utente. Per dare un'idea di come si evolverà quel legame nei prossimi anni, utilizza l'esempio familiare dell'assistente per smartphone.

Oggi, molti di noi portano uno smartphone in grado di rispondere a domande come "chi è l'attuale presidente degli Stati Uniti?" e query più complesse come "quanto sono alte le figlie del presidente degli Stati Uniti?" Presto vedremo azioni basate su queste domande diventare un luogo comune. Ad esempio, potresti chiedere al tuo telefono di ordinare un nuovo pacchetto di pannolini.

Per dimostrare la fase successiva dello sviluppo, Moore ha avanzato una domanda di esempio apparentemente innocua. "Ho tempo per andare a prendere un caffè prima del mio prossimo incontro?"

Altro su AI:  l'algoritmo di machine learning mette le parole di George W. Bush nella bocca di Barack Obama

"Sotto il cofano, c'è molta conoscenza che deve arrivare al computer affinché il computer possa rispondere alla domanda", ha detto Moore. Mentre la tecnologia odierna può comprendere la domanda, il sistema necessita di molti dati per rispondere. Com'è la fila al bar? Com'è il traffico? Che tipo di bevanda ordina solitamente l'utente? Dare al computer l'accesso a questi dati presenta le proprie sfide.

I sistemi di intelligenza artificiale avranno bisogno di accedere a un'enorme quantità di informazioni - alcune delle quali sono scolpite nella pietra, alcune delle quali cambiano continuamente - semplicemente per svolgere i compiti complessi che ci aspetteremo da loro in pochi anni.

Moore illustra questo punto confrontando il tono di voce che una persona potrebbe assumere quando parla con il capo del proprio capo o con un vecchio amico. Da qualche parte nelle tue banche dati, c'è un nucleo di informazioni che ti dice che il primo dovrebbe essere trattato con certi segnali sociali che non sono così necessari quando si parla con il secondo.

Se chiedi a Google di mostrare vestiti rossi e uno dei risultati è un tostapane, tutto va in pezzi.

È roba semplice per un essere umano, ma qualcosa che deve essere instillato nell'IA. E quanto più urgente è il compito, tanto più importante diventa la precisione. Chiedere a un assistente se hai un caffè è una cosa. Ma cosa succederebbe se tu fossi ferito e avessi bisogno di sapere quale ospedale potrebbe essere raggiunto più rapidamente - e forse hai bisogno di un aiuto robot per raggiungerlo? Un errore diventa improvvisamente pericoloso per la vita.

"In realtà è abbastanza facile scrivere un programma di apprendimento automatico in cui lo si allena con molti esempi", ha affermato Moore. “Quando hai fatto quel lavoro, ti ritrovi con un modello. Funziona abbastanza bene e quando costruiamo un sistema del genere, parliamo di "accuratezza" e utilizziamo frasi come "precisione" e "richiamo". La cosa interessante è che è abbastanza semplice ottenere le cose corrette 19 volte su 20. "

"Per molte applicazioni, è abbastanza buono. Ma, in molte altre applicazioni, specialmente quando è coinvolta la sicurezza o dove stai ponendo domande molto complicate, hai davvero bisogno che il tuo sistema abbia una precisione del 99,9% ".

Anche la fiducia degli utenti è un problema. "[Se] chiedi a Google 'mostrami i 15 vestiti rossi più popolari' e vengono visualizzati i risultati e solo uno di loro è in realtà un tostapane, allora tutto va in pezzi. Gli utenti smettono di fidarsi. " È probabile che un utente che perde la fiducia in un robot smetta del tutto di usarlo.

Insegnare la conoscenza comune

Anche trascurando i compiti specifici per cui ogni singola implementazione è progettata, i robot e le intelligenze artificiali avranno bisogno di un'enorme quantità di conoscenze di base per operare in natura. Tutto, dai segnali sociali alle norme di sicurezza, deve essere impresso nel cervello delle macchine per garantirne il successo.

Fortunatamente, altri campi stanno dando una mano in alcuni elementi di questo curriculum computazionale. "Con cose come la navigazione e con l'analisi dell'espressione facciale umana, esiste una disciplina scientifica esistente che in realtà ha molti dati reali", ha detto Moore. Anche i singoli progetti di ricerca possono spesso essere riproposti.

"Gli algoritmi su cui stiamo lavorando sono generali", mi ha detto Matthias Scheutz, riferendosi alla ricerca che lui e Gordon Briggs hanno condotto alla Tufts University. "Possono essere applicati in qualsiasi dominio, purché il robot abbia le rappresentazioni necessarie delle azioni e delle norme per quel dominio."

I moduli che potrebbero dare a un robot la capacità di riconoscere le espressioni umane, o evitare che cadano da un tavolo, hanno sicuramente i loro usi. Tuttavia, ciascuno soddisferebbe una parte molto piccola dei requisiti di base di una macchina per il funzionamento senza supervisione. Un sistema operativo generalizzato potrebbe presentare un livello base di conoscenza comune che potrebbe essere facilmente condiviso tra diverse implementazioni.

"Uno dei maggiori finanziatori di questo tipo di lavoro è un gruppo che ha finanziato molte altre cose che si sono rivelate importanti", ha detto Moore. “Questo è DARPA. Hanno una serie di grandi progetti in quello che chiamano 'conoscenza comune per la robotica' ".

Se IA e robot ausiliari diventeranno una realtà in un futuro non troppo lontano, è probabile che una qualche versione di questa piattaforma di "conoscenza comune per la robotica" sia una componente cruciale. Potrebbe anche essere la chiave per un'ampia adozione tradizionale.

C'è molto lavoro da fare prima che ci sia una knowledge base in grado di supportare la prima ondata di robot consumer. Il prodotto finale potrebbe essere lontano anni, ma le basi necessarie per facilitarne la creazione non sono fantascienza.