Le reti neurali sono sempre delle black-boxes?

rete neurale

Condividi:

Condividi su facebook
Condividi su twitter
Condividi su linkedin
Condividi su whatsapp
Condividi su telegram

Sempre più spesso sentiamo parlare di reti neurali artificiali e Deep Learning, un campo di ricerca del Machine Learning e dell’intelligenza artificiale.

Come sappiamo, il Deep Learning consiste in un insieme di tecniche basate su reti neurali artificiali organizzate in diversi strati: ogni strato calcola i valori per quello successivo, in modo da elaborare le informazioni in maniera sempre più completa.

Esistono molte architetture di reti neurali, come quelle convoluzionali o ricorrenti, in grado di risolvere problemi specifici.

I modelli di Deep Learning sono sempre più apprezzati perché adatti ad analizzare svariate tipologie di dataset, forniscono risultati più accurati e lavorano in parallelo.

Vi sono però degli svantaggi: la necessità di una mole di dati elevata per essere addestrati correttamente, i lunghi tempi di addestramento e, soprattutto, la spiegabilità.

Ed è proprio su quest’ultimo aspetto che vogliamo concentrarci: ai modelli basati su reti neurali viene spesso associato il concetto di black-box, vediamo di cosa si tratta.

Il problema della spiegabilità delle reti neurali

Un modello black-box consiste in un sistema in cui si conosce cosa entra e cosa esce ma non cosa avviene all’interno del sistema stesso.

In un modello di Deep Learning, conosciamo i dati in input e comprendiamo l’output del modello.

Però non sappiamo esattamente cosa avviene tra i diversi strati della rete neurale.

Il problema principale dei modelli di Deep Learning è proprio questo: si tratta di modelli così complessi che spesso non sappiamo davvero come e cosa apprendono.

Alcuni ricercatori di computer science della Duke University, hanno cercato di risolvere questo problema nel contesto della computer vision.

Le reti neurali nella computer vision

Il settore della computer vision permette di analizzare le immagini per classificarle, individuare diversi oggetti all’interno delle stesse e altre applicazioni.

I modelli principali per questo compito sono le reti neurali convoluzionali.

Esempio di schema di una rete neurale convoluzionale.

Utilizzando questi modelli di Deep Learning, risulta difficile capire i pattern individuati dalla rete neurale per prendere delle decisioni.

Con lo scopo di migliorare questo aspetto delle reti neurali, i ricercatori hanno sperimentato diversi approcci.

Modificando il processo di ragionamento alla base delle previsioni, è possibile ottimizzare in maniera più efficace il comportamento delle reti.

Per questo motivo i ricercatori hanno sentito la necessità di indirizzare il modello verso una corretta comprensione del problema oggetto di analisi.

Come rendere spiegabile un modello di Deep Learning nella computer vision

La maggior parte degli approcci puntano ad analizzare le caratteristiche chiave del problema: nel caso delle immagini, insiemi di pixel e zone dell’immagine che risultano essere cruciali nelle decisioni a posteriori dell’algoritmo di Deep Learning.


Ma questi approcci permettono di capire solo dove la rete neurale tende a porre la sua attenzione, non come ragiona.

Invece di tentare di spiegare il processo decisionale di una rete neurale a risultati ottenuti, si è rivelato efficace addestrarla a mostrare il suo lavoro esprimendo la sua comprensione dei concetti lungo gli strati di neuroni.

Così è possibile interpretare il modo in cui i diversi concetti sono rappresentati all’interno degli strati della rete.

I ricercatori hanno scoperto che, attraverso una lieve modifica ad una rete neurale, è possibile identificare elementi nelle immagini con la stessa precisione della rete originale e tuttavia ottenere una certa interpretabilità nel processo di ragionamento della rete.

In questo breve video è possibile capire in cose consiste, a livello matematico, l’implementazione di questa tecnica, chiamata Concept Whitening.

Dunque, il metodo utilizzato controlla il flusso delle informazioni attraverso la rete neurale.

L’esperimento condotto dai ricercatori per testare il Concept Whitening

I ricercatori hanno testato il loro approccio su una rete neurale addestrata su milioni di immagini etichettate per riconoscere vari tipi di ambienti interni ed esterni, come stanze, cortili e altri.

I ricercatori hanno cercato di capire quali concetti la rete utilizzava maggiormente nell’elaborazione di una predizione.

Per fare un esempio, alla rete è stata data in input l’immagine di un tramonto arancione: si è visto che nei primi strati i colori caldi nell’immagine del tramonto, tendevano ad essere associati al concetto di letto.

Man mano che l’immagine viaggia attraverso strati successivi, la rete neurale si basa gradualmente su una rappresentazione mentale più dettagliata.

Così il concetto di aeroplano diventa più presente: questo avviene perché è un concetto facilmente associabile al cielo e alle nuvole.

Questo esempio è molto semplicistico, ma è utile per capire come i ricercatori sono riusciti a interpretare i ragionamenti di un modello di Deep Learning.

Probabilmente in futuro tecniche di questo tipo saranno utilizzate anche per altri tipi di reti neurali, diventando applicabili in molte più situazioni.

Fonte: https://techxplore.com/news/2020-12-accurate-neural-network-vision-black.html

Condividi su facebook
Condividi su twitter
Condividi su linkedin
Condividi su whatsapp
Condividi su telegram
Edoardo Di Toma

Edoardo Di Toma

Junior Data Scientist in Vedrai S.p.A. e laureato in Management e Finanza. Ho completato il master in Data Science e Intelligenza Artificiale di Talent Garden Innovation School. Oltre che di data science, sono appassionato di musica, boardgames, calcio e tanto altro.

Iscriviti
Notificami
guest
0 Commenti
Inline Feedback
Vedi tutti i commenti
Neuragate