Storage dei Big Data

Storage Big Data

Condividi:

Condividi su facebook
Condividi su twitter
Condividi su linkedin
Condividi su whatsapp
Condividi su telegram

Lo storage dei big data è un argomento molto importante vista la continua crescita della mole di dati che generiamo e che abbiamo bisogno di conservare ogni giorno.

Inoltre, lo studio dei dati è un grande promessa per la crescita di tantissime realtà, siano esse business, ricerche statistiche o tecnologie all’avanguardia come il machine learning.

Hardware di storage per Big data

Il sistema di storage dei big data prevede il raggruppamento di vari server in cluster attaccati a dischi rigidi ad alta capienza, tutti configurati in un sistema MPP (Massive Parallel Processing).


Un’architettura MPP permette l’elaborazione coordinata in parallelo di vari nodi di un cluster migliorando le performance di computazione.
Ogni unità ha il proprio sistema operativo e la propria memoria dedicata, ma alla fine tutto il cluster viene riconosciuto come struttura singola.


Software all’altezza dei big data

I dati provengono da varie fonti e sono non strutturati, ciò vuol dire che non possiamo trattarli come un database “normale” che ha una struttura ben definita in relazione a cartelle, sottocartelle, dati e metadati.

Vista la natura variegata e non strutturata dei dati, si usa infatti un database NoSQL, cioè un database più semplice che non ha bisogno di relazioni e gerarchie fra i vari dati.

Il framework di elaborazione di grandi dataset più utilizzato è Apache Hadoop, che permette di distribuire in modo equo il processo di “digestione” dei dati attraverso il cluster senza cali di performance.

Infatti, grazie alla sua funzione MapReduce, può inoltrare una richiesta in contemporanea su tutti i nodi, raccogliere le risposte e ridurle in un risultato singolo e coerente.

Anche se in questo articolo non li approfondiremo, ci sono vari tipi di cluster e vari tipi di database NoSQL in base all’utilizzo specifico che bisogna farne.

Lo storage nei prossimi anni

Anche se per adesso abbiamo una quantità di dati “gestibile”, in futuro la richiesta di spazio di archiviazione aumenterà esponenzialmente.

Secondo un report di Seagate, la richiesta di spazio di archiviazione per i big data passerà dagli attuali 23 ai 175 Zettabyte (un zettabyte è l’equivalente di un miliardo di terabyte) entro il 2025.

La preoccupazione è che alla fine di questo secolo arriveremo a finire effettivamente tutti i supporti fisici di memoria e le materie prime con le quali produrle, e a quel punto?

Si stanno cercando nuovi modi per ottimizzare lo spazio in ogni singolo supporto, ma soprattutto si stano facendo sforzi per trovare alternative.

Uno degli studi più interessanti riguarda l’uso di strutture come il DNA per archiviare informazioni vista la facile codifica e l’alta possibilità di comprimere dati, senza contare che potremmo creare il genoma in laboratorio.

Fonte

Condividi su facebook
Condividi su twitter
Condividi su linkedin
Condividi su whatsapp
Condividi su telegram
Andrew

Andrew


Iscriviti
Notificami
guest
0 Commenti
Inline Feedback
Vedi tutti i commenti
Neuragate