Back to Search

Effiziente Datendeduplizierung in Hadoop

AUTHOR Prajapati, Priteshkumar; Shah, Parth
PUBLISHER Verlag Unser Wissen (09/18/2025)
PRODUCT TYPE Paperback (Paperback)

Description
Hadoop wird häufig für die Speicherung massiv verteilter Daten verwendet. Obwohl es sehr fehlertolerant und skalierbar ist und auf handelsüblicher Hardware läuft, bietet es keine effiziente und optimierte Datenspeicherlösung. Wenn Benutzer Dateien mit identischem Inhalt in Hadoop hochladen, werden alle Dateien im HDFS (Hadoop Distributed File System) gespeichert, auch wenn der Inhalt identisch ist, was zu einer Duplizierung des Inhalts und damit zu einer Verschwendung von Speicherplatz führt. Datendeduplizierung ist ein Prozess zur Reduzierung der erforderlichen Speicherkapazität, da nur die eindeutigen Dateninstanzen gespeichert werden. Der Prozess der Datendeduplizierung wird häufig in Dateiservern, Datenbankmanagementsystemen, Backup-Speichern und vielen anderen Speicherlösungen eingesetzt. Eine geeignete Deduplizierungsstrategie nutzt den Speicherplatz auf den begrenzten Speichergeräten ausreichend aus. Hadoop bietet keine Lösung zur Datendeduplizierung. In dieser Arbeit wurde das Modul zur Deduplizierung in das Hadoop-Framework integriert, um eine optimierte Datenspeicherung zu erreichen.
Show More
Product Format
Product Details
ISBN-13: 9786202087261
ISBN-10: 6202087269
Binding: Paperback or Softback (Trade Paperback (Us))
Content Language: German
More Product Details
Page Count: 76
Carton Quantity: 92
Product Dimensions: 6.00 x 0.18 x 9.00 inches
Weight: 0.25 pound(s)
Country of Origin: US
Subject Information
BISAC Categories
Computers | General
Descriptions, Reviews, Etc.
publisher marketing
Hadoop wird häufig für die Speicherung massiv verteilter Daten verwendet. Obwohl es sehr fehlertolerant und skalierbar ist und auf handelsüblicher Hardware läuft, bietet es keine effiziente und optimierte Datenspeicherlösung. Wenn Benutzer Dateien mit identischem Inhalt in Hadoop hochladen, werden alle Dateien im HDFS (Hadoop Distributed File System) gespeichert, auch wenn der Inhalt identisch ist, was zu einer Duplizierung des Inhalts und damit zu einer Verschwendung von Speicherplatz führt. Datendeduplizierung ist ein Prozess zur Reduzierung der erforderlichen Speicherkapazität, da nur die eindeutigen Dateninstanzen gespeichert werden. Der Prozess der Datendeduplizierung wird häufig in Dateiservern, Datenbankmanagementsystemen, Backup-Speichern und vielen anderen Speicherlösungen eingesetzt. Eine geeignete Deduplizierungsstrategie nutzt den Speicherplatz auf den begrenzten Speichergeräten ausreichend aus. Hadoop bietet keine Lösung zur Datendeduplizierung. In dieser Arbeit wurde das Modul zur Deduplizierung in das Hadoop-Framework integriert, um eine optimierte Datenspeicherung zu erreichen.
Show More
List Price $47.00
Your Price  $46.53
Paperback