Differenza tra Big data e software Hadoop in informatica

Differenza tra Big data e software Hadoop in informatica

Big data e software Hadoop

La differenza in informatica tra i big data e il programma software open source Hadoop è netta e fondamentale. Il primo è una risorsa, spesso complessa e ambigua, mentre il secondo è un programma (o software) che realizza una serie di traguardi e obiettivi per affrontare tale risorsa.

I big data sono semplicemente i grandi set di dati che le aziende e altre parti mettono insieme per servire obiettivi e operazioni specifici. I big data possono includere molti diversi tipi di dati in molti diversi tipi di formati. Ad esempio, le aziende potrebbero dedicare molto lavoro alla raccolta di migliaia di dati sugli acquisti in formati di valuta, sugli identificatori dei clienti come il nome o il numero di previdenza sociale o sulle informazioni sui prodotti sotto forma di numeri di modello, numeri di vendita o numeri di inventario. Tutto questo, o qualsiasi altra grande massa di informazioni, può essere chiamato big data. Di norma, è grezzo e non ordinato finché non viene sottoposto a vari tipi di strumenti e gestori.

Differenza tra Big data e software Hadoop in informatica

Il software Hadoop è invece uno degli strumenti progettati per gestire i big data. Hadoop e altri prodotti software lavorano per interpretare o analizzare i risultati delle ricerche di big data attraverso algoritmi e metodi proprietari specifici. Hadoop è un programma open source con licenza Apache gestito da una comunità globale di utenti. Include vari componenti principali, tra cui un insieme di funzioni MapReduce e un file system distribuito Hadoop (HDFS) .

L’idea alla base di MapReduce è che Hadoop può prima mappare un set di dati di grandi dimensioni e quindi eseguire una riduzione su quel contenuto per risultati specifici. Una funzione di riduzione può essere pensata come una sorta di filtro per i dati grezzi. Il sistema HDFS agisce quindi per distribuire i dati su una rete o migrarli secondo necessità.

Gli amministratori di database, gli sviluppatori e altri possono utilizzare le varie funzionalità di Hadoop per gestire i big data in diversi modi. Ad esempio, Hadoop può essere utilizzato per perseguire strategie di dati come il clustering e il targeting con dati non uniformi o dati che non si adattano perfettamente a una tabella tradizionale o rispondono bene a query semplici.

Pubblicato da Vito Lavecchia

Lavecchia Vito Ingegnere Informatico (Politecnico di Bari) Email: [email protected] Sito Web: https://vitolavecchia.altervista.org

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *