Back to Search

Deduplicazione efficiente dei dati in Hadoop

AUTHOR Prajapati, Priteshkumar; Shah, Parth
PUBLISHER Edizioni Sapienza (09/18/2025)
PRODUCT TYPE Paperback (Paperback)

Description
Hadoop è ampiamente utilizzato per l'archiviazione di dati distribuiti su larga scala. Sebbene sia altamente tollerante ai guasti, scalabile e funzionante su hardware standard, non fornisce una soluzione di archiviazione dati efficiente e ottimizzata. Quando un utente carica file con lo stesso contenuto su Hadoop, tutti i file vengono archiviati su HDFS (Hadoop Distributed File System) anche se il contenuto è identico, il che porta alla duplicazione dei contenuti e quindi a uno spreco di spazio di archiviazione. La deduplicazione dei dati è un processo che consente di ridurre la capacità di archiviazione richiesta, poiché vengono memorizzate solo le istanze uniche dei dati. Il processo di deduplicazione dei dati è ampiamente utilizzato nei file server, nei sistemi di gestione dei database, nell'archiviazione di backup e in molte altre soluzioni di archiviazione. Una strategia di deduplicazione adeguata utilizza in modo ottimale lo spazio di archiviazione disponibile nei dispositivi di archiviazione limitati. Hadoop non fornisce una soluzione di deduplicazione dei dati. In questo lavoro, il modulo di deduplicazione è stato integrato nel framework Hadoop per ottenere un'archiviazione dei dati ottimizzata.
Show More
Product Format
Product Details
ISBN-13: 9786202087407
ISBN-10: 6202087404
Binding: Paperback or Softback (Trade Paperback (Us))
Content Language: Italian
More Product Details
Page Count: 76
Carton Quantity: 92
Product Dimensions: 6.00 x 0.18 x 9.00 inches
Weight: 0.25 pound(s)
Country of Origin: US
Subject Information
BISAC Categories
Computers | General
Descriptions, Reviews, Etc.
publisher marketing
Hadoop è ampiamente utilizzato per l'archiviazione di dati distribuiti su larga scala. Sebbene sia altamente tollerante ai guasti, scalabile e funzionante su hardware standard, non fornisce una soluzione di archiviazione dati efficiente e ottimizzata. Quando un utente carica file con lo stesso contenuto su Hadoop, tutti i file vengono archiviati su HDFS (Hadoop Distributed File System) anche se il contenuto è identico, il che porta alla duplicazione dei contenuti e quindi a uno spreco di spazio di archiviazione. La deduplicazione dei dati è un processo che consente di ridurre la capacità di archiviazione richiesta, poiché vengono memorizzate solo le istanze uniche dei dati. Il processo di deduplicazione dei dati è ampiamente utilizzato nei file server, nei sistemi di gestione dei database, nell'archiviazione di backup e in molte altre soluzioni di archiviazione. Una strategia di deduplicazione adeguata utilizza in modo ottimale lo spazio di archiviazione disponibile nei dispositivi di archiviazione limitati. Hadoop non fornisce una soluzione di deduplicazione dei dati. In questo lavoro, il modulo di deduplicazione è stato integrato nel framework Hadoop per ottenere un'archiviazione dei dati ottimizzata.
Show More
List Price $47.00
Your Price  $46.53
Paperback