Condividi:

Condividi su facebook
Condividi su twitter
Condividi su linkedin
Condividi su whatsapp
Condividi su telegram

Immagina se i robot potessero imparare guardando delle dimostrazioni: potresti mostrare a un robot domestico come svolgere le faccende di casa o apparecchiare la tavola.

E di conseguenza dopo averlo fatto tre o quattro volte, il robot apprende cosa deve fare.

Un altro esempio: sul posto di lavoro potresti addestrare robot come nuovi dipendenti, mostrando loro come svolgere molti compiti.

Oppure, e qui arriviamo al motivo della stesura di quest’articolo, la tua auto a guida autonoma potrebbe imparare a guidare in sicurezza osservandoti mentre guidi nel tuo quartiere.

Progettato un sistema di machine learning basato su compiti complessi

I ricercatori della USC hanno progettato un sistema che consente ai robot di apprendere autonomamente compiti complicati anche vedendoli poche volte.

Mentre gli attuali metodi richiedono almeno 100 dimostrazioni per apprendere un’attività specifica, questo nuovo metodo consente ai robot di imparare solo da un paio di dimostrazioni.

Il documento, intitolato Learning from Demonstrations Using Signal Temporal Logic, è stato presentato alla Conference on Robot Learning (CoRL).


Il machine learning (o apprendimento automatico) consiste nella capacità di una macchina, o un algoritmo, di apprendere in maneira autonoma.


Il sistema dei ricercatori funziona valutando la qualità di ogni dimostrazione, in modo da imparare dagli errori che vede, così come dai successi.

Leggiti anche: Cos’è il Machine Learning?

Questo sistema funziona solo con poche dimostrazioni

Mentre gli attuali metodi all’avanguardia richiedono almeno 100 dimostrazioni per inchiodare un’attività specifica, questo nuovo metodo consente ai robot di imparare solo da un paio di dimostrazioni.

Consente inoltre ai robot di apprendere in modo più intuitivo, nel modo in cui gli esseri umani imparano gli uni dagli altri: guardi qualcuno eseguire un compito, anche in modo imperfetto, poi provi tu stesso. Non deve essere una dimostrazione “perfetta” perché gli umani raccolgano conoscenza osservandosi l’un l’altro.

“Molti sistemi di apprendimento automatico e apprendimento per rinforzo richiedono grandi quantità di dati e centinaia di dimostrazioni: è necessario un essere umano per dimostrare più e più volte, il che non è fattibile”, ha affermato l’autore principale Aniruddh Puranic, Ph.D. studente in informatica presso la USC Viterbi School of Engineering.

“Inoltre, la maggior parte delle persone non ha conoscenze di programmazione per dire ciò che il robot deve fare e un essere umano non può assolutamente dimostrare tutto ciò che un robot deve sapere.

E se il robot incontra qualcosa che non ha mai visto prima? una sfida fondamentale “.

Leggiti anche: Lenti a contatto AR, Mojo Vision procede al suo sviluppo

Robot che imparano a guidare le auto: semplicemente osservando un essere umano alla guida

Robot che imparano a guidare le auto

Imparare dalle dimostrazioni sta diventando sempre più popolare per ottenere efficaci politiche di controllo del robot – che controllano i movimenti del robot – per compiti complessi.

Inoltre, non tutte le dimostrazioni sono uguali: alcune dimostrazioni sono un indicatore migliore del comportamento desiderato rispetto ad altre e la qualità delle dimostrazioni spesso dipende dall’esperienza dell’utente che le fornisce.


Per affrontare questi problemi, i ricercatori hanno integrato la “logica temporale del segnale” o STL, per valutare la qualità delle dimostrazioni e classificarle automaticamente per creare ricompense intrinseche.

In altre parole, anche se alcune parti delle dimostrazioni non hanno alcun senso in base ai requisiti logici, utilizzando questo metodo, il robot può comunque imparare dalle parti imperfette. In un certo senso, il sistema sta arrivando alla propria conclusione sull’accuratezza o il successo di una dimostrazione.

Un sistema di apprendimento simile a quello degli umani

“Supponiamo che i robot imparino da diversi tipi di dimostrazioni – potrebbe essere una dimostrazione pratica, video o simulazioni – se faccio qualcosa che è molto pericoloso, gli approcci standard faranno una delle due cose: o, lo replicheranno completamente o, peggio ancora, il robot imparerà la cosa sbagliata “, ha detto il coautore Stefanos Nikolaidis, assistente professore di informatica dell’USC Viterbi.

“Al contrario, in modo molto intelligente, questo lavoro utilizza un ragionamento di buon senso sotto forma di logica per capire quali parti della dimostrazione sono buone e quali no. In sostanza, questo è esattamente ciò che fanno anche gli umani”.

Robot che imparano: e se le dimostrazioni sono errate?

Prendi, ad esempio, una dimostrazione di guida in cui qualcuno salta un segnale di stop. Questo sarebbe classificato più in basso dal sistema rispetto a una dimostrazione di un buon pilota. Ma se durante questa dimostrazione il guidatore fa qualcosa di intelligente – ad esempio, applica i freni per evitare un incidente – il robot imparerà comunque da questa azione intelligente.

I robot prima devono adattarsi alle preferenze umane

“Se vogliamo che i robot siano buoni compagni di squadra e aiutino le persone, prima devono imparare e adattarsi alle preferenze umane in modo molto efficiente”, ha detto Nikolaidis.

E il metodo in questione lo fornisce.

“Sono entusiasta di integrare questo approccio nei sistemi robotici per aiutarli a imparare in modo efficiente dalle dimostrazioni, ma anche aiutare efficacemente i compagni di squadra umani in un’attività collaborativa”.

Fonte

Condividi su facebook
Condividi su twitter
Condividi su linkedin
Condividi su whatsapp
Condividi su telegram
Matteo Leva

Matteo Leva

Ciao

Iscriviti
Notificami
guest
0 Commenti
Inline Feedback
Vedi tutti i commenti