American National Standards Institute Inc.

E’ stato battezzato apprendimento “less than one” ovvero un modello di IA e Machine Learning che permetterebbe di apprendere senza avere troppi dati di addestramento.

Un modello di ML che prevede senza troppi dati di training

Per chi non sapesse cosa sono i dati di training, questi sono dati con cui vengono addestrati tutti i modelli di intelligenza artificiale. Di solito ogni modello per essere addestrato richiede una quantità enorme di dati di allenamento (training), prima di poter fare il proprio lavoro.

Faccio un piccolo esempio: un algoritmo per riconoscere un cane, ha bisogno di vedere milioni di immagini di cani e anche in diverse angolazioni, mentre per noi esseri umani basta vedere quell’animale anche una sola volta per poi riconoscerlo.

In un articolo dell’università di Waterloo dice che anche gli algoritmi di IA devono essere in grado di riconoscere qualsiasi cosa basandosi su pochi esempi, per questo hanno chiamato questo processo con il nome “less than one”.


Leggi anche: Arte ed intelligenza artificiale: possono diversi quadri essere connessi?


Se infatti il modello dovesse riuscire a fare ciò per cui è stato studiato, potrebbe ridurre i costi elevati dei dataset che appunto servono per allenare e testare i modelli di ML.

Come funziona l’apprendimento “less than one”

Tutto viene da un esperimento condotto dal MIT. Questo consisteva nel distillare il dataset MNIST composto da 60.000 immagini (di numeri scritti a mano che un IA deve riconoscere) fino a farlo arrivare a 10 immagini.

"less than one" experiment on MNIST

Com’è andata? Le immagini sono state ridotte, ma non sono state scelte da un algoritmo. Tutto il dataset delle 60.000 immagini è stato fuso, in modo tale da ottenere 10 immagini che raccogliessero tutti i dati di tutte le altre figure.

"less than one" experiment on MNIST

Seguendo questa logica i ricercatori si sono chiesti “Perché non ridurre questo numero a 5? Come fare?”

La studentessa che ha redatto l’articolo uscito poco tempo fa sul MIT, ha supposto che un numero potesse essere visto in diversi modi da un IA grazie a delle etichette ibride o morbide:

“Se si pensa alla cifra 3, sembra anche la cifra 8 ma niente come la cifra 7. Le etichette morbide cercano di acquisire queste funzionalità condivise. Quindi, invece di dire alla macchina, ‘Questa immagine è la cifra 3,’ diciamo, ‘Questa immagine è 60% la cifra 3, 30% la cifra 8, e 10% la cifra 0.”

Ilia Sucholutsky, studentessa

Il problema del modello

Questa scoperta e ricerca è davvero emozionante per certi versi, ma davvero molto complessa da attuare. Infatti, sembrerebbe che per ottenere una piccola quantità di dati, comunque bisogna passare da una grande quantità di questi.

Secondo i ricercatori, in teoria è possibile ovviare a questo problema costruendo dei dataset manualmente o con un altro algoritmo, ma questo è tutto da vedere!

Fatto sta che se si riuscisse a ridurre il numero di dati che servono per addestrare un algoritmo questo sarebbe davvero un punto di svolta e permetterebbe alle aziende di ottenere più accesso a questi, per non parlare della privacy che di questi tempi guadagnerebbe un po’ d’aria.

Fonte

Condividi su facebook
Condividi su twitter
Condividi su linkedin
Condividi su whatsapp
Condividi su telegram
Antonio Furioso

Antonio Furioso

Fondatore di Neuragate. Credo molto in quello che le immagini possono comunicare, per questo sono fortemente attratto dalla Computer Vision. Mi piace tutto quello che è nuovo. La curiosità è quella che mi spinge oltre le aspettative e a fare sempre di più.

Iscriviti
Notificami
guest
0 Commenti
Inline Feedback
Vedi tutti i commenti